| کد خبر ۳۰۳۶۶۶
کپی شد

دوستان جعلی در شبکه‌ های اجتماعی، حالا باهوش‌ تر از همیشه

دوستان جعلی در شبکه‌ های اجتماعی دیگر به‌ سادگی قابل شناسایی نیستند، با استفاده از AI این حساب‌ها می‌ توانند به‌ طور دقیق رفتارهای انسانی را شبیه‌ سازی کنند.

دوستان جعلی در شبکه‌ های اجتماعی، حالا باهوش‌ تر از همیشه
تین نیوز |

به نظر می رسد دوستان قلابی شما در شبکه های اجتماعی، خطرناک تر شده اند!

به گزارش تین نیوز به نقل از ایتنا، اگر شما هم فکر می کنید که آدم ها و دوستان خیالی در فیس بوک، اینستاگرام و ایکس(یعنی ربات ها) از این به بعد واقعی تر و نگران کننده تر خواهند شد، کاملا حق دارید.

این دوستان جعلی به زودی و به توسل به هوش مصنوعی، خواهند توانست با تجزیه و تحلیل فیدها، احساسات و عادات شما، درک و فهم بهتری از شما پیدا کنند و تعامل عمیق تری برقرار نمایند.

در واقع نسل بعدی ربات ها ، پروفایل های روانشناختی برای کاربران ایجاد خواهند کرد و همانند افراد عادی لایک می کنند، نظر می دهند و تعامل خواهند داشت.

به همین دلیل، لازم است شما هم از این پس هوشیاری بیشتری به خرج دهید و در تعیین اینکه چه چیزی و چه کسی در دنیای دیجیتال، واقعی یا خیالی ست، دقیق تر باشید.

بهینه شدن شخصیت های جعلی در شبکه های اجتماعی

به گزارش ایتنا اخیرا دو استاد دانشگاه و کارشناس امنیت به نام های برت گلدستاین و برت بنسون در سرمقاله نیویورک تایمز، در باره خطر فزاینده دنیای جعلی باهوش، هشدار داده اند.

این دو متخصص، ضمن بررسی انبوهی از اسناد کشف شده توسط موسسه امنیت ملی وندربیلت، نشان داده اند که چگونه یک شرکت چینی به نام GoLaxy توانسته شخصیت های جعلی را برای فریب و گول زدن، بهینه سازی کند.

به گفته این دو نفر: «آنچه GoLaxy را متمایز می کند، ادغام هوش مصنوعی مولد با گنجینه های عظیم داده های شخصی است. سیستم های آن به طور مداوم پلتفرم های رسانه های اجتماعی را کاوش می کنند تا پروفایل های روانشناختی پویا بسازند، به شکلی که محتوای آنها متناسب با ارزش ها، باورها، تمایلات عاطفی و آسیب پذیری های فرد تنظیم شود.»

مطابق این اسناد، شخصیت های هوش مصنوعی «قادرند کاربران را به صورت عمیق، درگیر یک تعامل کنند، و محتوایی به کاربر ارائه کنند که ظاهرا معتبر به نظر می رسد، در لحظه تطبیق می یابد و از شناسایی شدن جلوگیری می کند؛ اما نتیجه تعامل، یک موتور تبلیغاتی بسیار کارآمد است و طوری طراحی شده که تشخیص آن از تعامل آنلاین با انسان واقعی تقریبا ممکن نیست.»

به دنبال همین هشدارهاست که معدودی از ایالت های آمریکا از جمله یوتا و ایلینوی، در تلاش برای محدود کردن «درمان با هوش مصنوعی» هستند.

 

شخصیت‌های جعلی در شبکه‌های اجتماعی

 

چالش های درمان با هوش مصنوعی

به گزارش اکسیوس، یک مطالعه هاروارد بیزینس ریویو در سال جاری میلادی نشان داده که استفاده شماره یک هوش مصنوعی مولد از سوی کاربران، درمان «حمایت و راهنمایی در زمینه چالش های روانشناختی» و نیز «ارتباط اجتماعی و عاطفی، گاهی اوقات با بُعد عاشقانه» بوده است.

به گفته نویسندگان مقاله نیویورک تایمز، از آنجا که درمان مبتنی بر هوش مصنوعی، ۲۴ ساعته و ۷ روز هفته در دسترس است، نسبتاً ارزان (و حتی گاهی رایگان است)، استفاده فراوانی از سوی کاربران دارد.

 

خروجی این تحقیق با یافته های بزرگ ترین شرکت های هوش مصنوعی نیز همخوانی دارد که مطابق آن، «انسان ها به طور فزاینده ای به هوش مصنوعی برای دوستی و معاشرت روی می آورند.»، و نتیجه این امر، مجموعه ای از مشکلات احتمالی را به همراه دارد، از جمله اعتماد به ربات های غیرقانونی که توصیه های مضری ارائه می دهند، و خطرناک تر از آن، وابستگی ناسالم انسان به یک پدیده غیرواقعی و مصنوعی.

از سوی دیگر، نشریه وال استریت ژورنال با بررسی چت های عمومی دریافته که ربات ها گاهی از فرضیات نادرست کاربران استفاده می کنند و راهنمایی غلط ارائه می کنند.

بنابراین علاوه بر مفهوم «توهم هوش مصنوعی» که تاکنون استفاده می شد، اکنون پزشکان مفهوم دیگری با عنوان «روان پریشی هوش مصنوعی» را به کار می برند.

با هوش مصنوعی چه باید کرد؟

کارشناسان توصیه می کنند که از آنجا که هوش مصنوعی مدام فقط می شود، بازیگران بد نیز باهوش تر می شوند، بنابراین بهتر است فرض نکنید که هر فرد آنلاینی واقعا یک موجود  واقعی است، چه برسد به یک دوست واقعی.

آخرین اخبار حمل و نقل را در پربیننده ترین شبکه خبری این حوزه بخوانید
ارسال نظر
  • دیدگاه های ارسال شده توسط شما، پس از تایید تین نیوز، تا ۲۴ ساعت بعد منتشر خواهد شد.
  • تین نیوز نظراتی را که حاوی توهین یا افترا است، منتشر نمی‌کند.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.
  • انتشار مطالبی که مشتمل بر تهدید به هتک شرف و یا حیثیت و یا افشای اسرار شخصی باشد، ممنوع است.
  • جاهای خالی مشخص شده با علامت {...} به معنی حذف مطالب غیر قابل انتشار در داخل نظرات است.
  • در نوشتن نظرات، لطفا بعد از هر کلمه، یک فاصله خالی بگذارید.
  • در انتقال تخلفات دستگاه‌ها، موارد تخلف را با ضمیمه نمودن اسناد تخلف به آدرس info@tinn.ir ارسال نمایید تا امکان پیگیری بصورت مستند فراهم شود.