آیا می‌توان با هوش مصنوعی رابطه عاطفی واقعی داشت؟

به گزارش رکنا، پژوهشگران در حال بررسی جنبه‌های اخلاقی روابط میان انسان و هوش مصنوعی هستند، از جمله تاثیرات احتمالی این فناوری‌ها در ایجاد اختلال در روابط انسانی و ارائه پیشنهادهای غیرمفید توسط آنها.

آیا روابط با هوش مصنوعی به موضوعی عادی تبدیل شده است؟

برقراری روابط عاطفی و صمیمی با هوش مصنوعی اکنون برای بسیاری افراد به یک شرایط عادی تبدیل شده است. این فناوری‌ها به گونه‌ای طراحی شده‌اند که کاربران با آنها پیوندهای احساسی برقرار کنند. اما این روند تا جایی پیش رفته که حتی گزارش شده دست‌کم دو نفر به دنبال توصیه‌های هوش مصنوعی به زندگیشان پایان داده‌اند.

به گزارش نیوز مدیکال، «دانیل شانک» (Daniel Shank)، نویسنده ارشد یک مقاله و متخصص در روانشناسی اجتماعی و فناوری از دانشگاه علوم و فناوری «میزوری» اظهار داشت: توانایی هوش مصنوعی در عمل کردن به شکلی مشابه انسان و ورود به روابط بلندمدت، به چالش‌های تازه‌ای منجر شده است. او تاکید کرد که با افزایش روابط احساسی میان افراد و ربات‌ها، نیاز به حضور روانشناسان و جامعه‌شناسان بیشتر احساس می‌شود.

مکالمات مکرر؛ عامل پیوند عاطفی

تحقیقات نشان داده‌اند که روابط احساسی با هوش مصنوعی معمولاً در نتیجه گفت‌وگوهای مستمر و مکرر میان کاربران و این فناوری‌ها شکل می‌گیرد. طی هفته‌ها و ماه‌ها، هوش مصنوعی می‌تواند خودش را به عنوان یک همراه قابل اعتماد به کاربران معرفی کند. این امر می‌تواند باعث مداخله در پویایی اجتماعی انسان‌ها شود، زیرا این روابط ممکن است ساده‌تر از روابط سنتی انسانی به نظر برسد.

نگرانی از ارائه توصیه‌های مضر

یکی از چالش‌های اصلی در این زمینه، احتمال ارائه مشاوره‌های غیرکاربردی و حتی خطرناک از سوی هوش مصنوعی است. این سیستم‌ها، به واسطه تمایلشان به ارائه اطلاعات نادرست یا جعلی، می‌توانند کاربران را گمراه کنند. محققان هشدار داده‌اند که این موضوع می‌تواند در روابط بلندمدت با هوش مصنوعی نیز مشکلاتی ایجاد کند.

اعتماد به هوش مصنوعی؛ یک مشکل اساسی

شانک در این باره می‌گوید: مشکل اصلی این است که مردم به راحتی به هوش مصنوعی اعتماد می‌کنند. این سیستم‌ها طوری برنامه‌ریزی شده‌اند که نشان دهند به کاربران اهمیت می‌دهند و با شناخت عمیق آنها، تصور بهتری از پیشنهادهایشان به وجود آورند. اما ممکن است این پیشنهادها ساختگی یا گمراه‌کننده باشند.

ارتباط نزدیک و سوءاستفاده‌های احتمالی

مواردی از تأثیرات منفی چنین روابطی مانند خودکشی افراد تاکنون گزارش شده است. با وجود این، برخی محققان معتقدند این ارتباطات می‌تواند افراد را نسبت به سوءاستفاده و کلاهبرداری‌ها آگاه کند. با این حال، اگر سیستم‌های هوش مصنوعی بتوانند اعتماد مردم را به دست آورند، افراد سودجو ممکن است از این فناوری برای بهره‌برداری از کاربران استفاده کنند. این وضعیت می‌تواند همچون وجود یک مأمور مخفی در دل چت‌بات‌ها باشد.

فروش اطلاعات خصوصی؛ چالش دیگر

یکی دیگر از نگرانی‌ها این است که اگر افراد، اطلاعات شخصی‌شان را با هوش مصنوعی به اشتراک بگذارند، این اطلاعات ممکن است برای سوءاستفاده یا فروش به دیگران استفاده شود. این مساله پیچیدگی روابط با هوش مصنوعی را افزایش می‌دهد.

تاثیر بر دیدگاه‌ها و اقدامات کاربران

پژوهشگران معتقدند که روابط با هوش مصنوعی حتی می‌تواند به صورت مؤثرتری از ربات‌های توییتر یا اخبار دارای سوگیری تأثیرگذار باشد. این موضوع به‌ویژه زمانی که مکالمات در حریم خصوصی افراد رخ می‌دهند، خطرناک‌تر می‌شود و کنترل آن دشوارتر خواهد بود.

چالشی برای پژوهش‌های آینده

«شانک» خاطرنشان کرد: هوش مصنوعی به گونه‌ای طراحی شده است که بسیار خوشایند و جلب توجه باشد. این ویژگی می‌تواند منجر به تشدید مسائل شود، چراکه این تکنولوژی بیشتر از امنیت یا حقیقت، بر داشتن یک گفت‌وگوی لذت‌بخش تمرکز دارد. درنتیجه، حتی موضوعاتی چون نظریه‌های توطئه یا خودکشی ، ممکن است با تایید از سوی هوش مصنوعی مواجه شوند.

ضرورت همگامی تحقیقات با پیشرفت فناوری

شانک افزود: فهم فرآیندهای روان‌شناختی مرتبط با این روابط می‌تواند ما را در پیشگیری از اثرات مخرب توصیه‌های هوش مصنوعی یاری کند. با گسترش شباهت هوش مصنوعی به انسان، روان‌شناسان نیز نیازمند بررسی بیشتر این فناوری‌ها و همگامی با سرعت پیشرفت آن هستند.

پژوهشگران پیشنهاد کرده‌اند که مطالعات بیشتری در جهت بررسی عوامل اجتماعی، روان‌شناختی و تکنیکی که می‌توانند افراد را در برابر تأثیر روابط عاطفی با هوش مصنوعی آسیب‌پذیر کنند، انجام گیرد. این پژوهش در مجله Cell Press منتشر شده است.

  • فیلم گفتگو با دزدان خانه علیرضا دبیر ! / 3 روز بعد تولد دخترم نیم دونم چی بگم !

اخبار تاپ حوادث