آیا میتوان با هوش مصنوعی رابطه عاطفی واقعی داشت؟
رکنا: روابط عاطفی با هوش مصنوعی به چالشهای اخلاقی و روانشناختی منجر شده است؛ از پیوند عمیق انسانی تا پیامدهای خطرناک، روانشناسان هشدار میدهند.

به گزارش رکنا، پژوهشگران در حال بررسی جنبههای اخلاقی روابط میان انسان و هوش مصنوعی هستند، از جمله تاثیرات احتمالی این فناوریها در ایجاد اختلال در روابط انسانی و ارائه پیشنهادهای غیرمفید توسط آنها.
آیا روابط با هوش مصنوعی به موضوعی عادی تبدیل شده است؟
برقراری روابط عاطفی و صمیمی با هوش مصنوعی اکنون برای بسیاری افراد به یک شرایط عادی تبدیل شده است. این فناوریها به گونهای طراحی شدهاند که کاربران با آنها پیوندهای احساسی برقرار کنند. اما این روند تا جایی پیش رفته که حتی گزارش شده دستکم دو نفر به دنبال توصیههای هوش مصنوعی به زندگیشان پایان دادهاند.
به گزارش نیوز مدیکال، «دانیل شانک» (Daniel Shank)، نویسنده ارشد یک مقاله و متخصص در روانشناسی اجتماعی و فناوری از دانشگاه علوم و فناوری «میزوری» اظهار داشت: توانایی هوش مصنوعی در عمل کردن به شکلی مشابه انسان و ورود به روابط بلندمدت، به چالشهای تازهای منجر شده است. او تاکید کرد که با افزایش روابط احساسی میان افراد و رباتها، نیاز به حضور روانشناسان و جامعهشناسان بیشتر احساس میشود.
مکالمات مکرر؛ عامل پیوند عاطفی
تحقیقات نشان دادهاند که روابط احساسی با هوش مصنوعی معمولاً در نتیجه گفتوگوهای مستمر و مکرر میان کاربران و این فناوریها شکل میگیرد. طی هفتهها و ماهها، هوش مصنوعی میتواند خودش را به عنوان یک همراه قابل اعتماد به کاربران معرفی کند. این امر میتواند باعث مداخله در پویایی اجتماعی انسانها شود، زیرا این روابط ممکن است سادهتر از روابط سنتی انسانی به نظر برسد.
نگرانی از ارائه توصیههای مضر
یکی از چالشهای اصلی در این زمینه، احتمال ارائه مشاورههای غیرکاربردی و حتی خطرناک از سوی هوش مصنوعی است. این سیستمها، به واسطه تمایلشان به ارائه اطلاعات نادرست یا جعلی، میتوانند کاربران را گمراه کنند. محققان هشدار دادهاند که این موضوع میتواند در روابط بلندمدت با هوش مصنوعی نیز مشکلاتی ایجاد کند.
اعتماد به هوش مصنوعی؛ یک مشکل اساسی
شانک در این باره میگوید: مشکل اصلی این است که مردم به راحتی به هوش مصنوعی اعتماد میکنند. این سیستمها طوری برنامهریزی شدهاند که نشان دهند به کاربران اهمیت میدهند و با شناخت عمیق آنها، تصور بهتری از پیشنهادهایشان به وجود آورند. اما ممکن است این پیشنهادها ساختگی یا گمراهکننده باشند.
ارتباط نزدیک و سوءاستفادههای احتمالی
مواردی از تأثیرات منفی چنین روابطی مانند خودکشی افراد تاکنون گزارش شده است. با وجود این، برخی محققان معتقدند این ارتباطات میتواند افراد را نسبت به سوءاستفاده و کلاهبرداریها آگاه کند. با این حال، اگر سیستمهای هوش مصنوعی بتوانند اعتماد مردم را به دست آورند، افراد سودجو ممکن است از این فناوری برای بهرهبرداری از کاربران استفاده کنند. این وضعیت میتواند همچون وجود یک مأمور مخفی در دل چتباتها باشد.
فروش اطلاعات خصوصی؛ چالش دیگر
یکی دیگر از نگرانیها این است که اگر افراد، اطلاعات شخصیشان را با هوش مصنوعی به اشتراک بگذارند، این اطلاعات ممکن است برای سوءاستفاده یا فروش به دیگران استفاده شود. این مساله پیچیدگی روابط با هوش مصنوعی را افزایش میدهد.
تاثیر بر دیدگاهها و اقدامات کاربران
پژوهشگران معتقدند که روابط با هوش مصنوعی حتی میتواند به صورت مؤثرتری از رباتهای توییتر یا اخبار دارای سوگیری تأثیرگذار باشد. این موضوع بهویژه زمانی که مکالمات در حریم خصوصی افراد رخ میدهند، خطرناکتر میشود و کنترل آن دشوارتر خواهد بود.
چالشی برای پژوهشهای آینده
«شانک» خاطرنشان کرد: هوش مصنوعی به گونهای طراحی شده است که بسیار خوشایند و جلب توجه باشد. این ویژگی میتواند منجر به تشدید مسائل شود، چراکه این تکنولوژی بیشتر از امنیت یا حقیقت، بر داشتن یک گفتوگوی لذتبخش تمرکز دارد. درنتیجه، حتی موضوعاتی چون نظریههای توطئه یا خودکشی ، ممکن است با تایید از سوی هوش مصنوعی مواجه شوند.
ضرورت همگامی تحقیقات با پیشرفت فناوری
شانک افزود: فهم فرآیندهای روانشناختی مرتبط با این روابط میتواند ما را در پیشگیری از اثرات مخرب توصیههای هوش مصنوعی یاری کند. با گسترش شباهت هوش مصنوعی به انسان، روانشناسان نیز نیازمند بررسی بیشتر این فناوریها و همگامی با سرعت پیشرفت آن هستند.
پژوهشگران پیشنهاد کردهاند که مطالعات بیشتری در جهت بررسی عوامل اجتماعی، روانشناختی و تکنیکی که میتوانند افراد را در برابر تأثیر روابط عاطفی با هوش مصنوعی آسیبپذیر کنند، انجام گیرد. این پژوهش در مجله Cell Press منتشر شده است.
-
فیلم گفتگو با دزدان خانه علیرضا دبیر ! / 3 روز بعد تولد دخترم نیم دونم چی بگم !
ارسال نظر