حماقت های هوش های مصنوعی جهان در ارایه خدمات به انسان  خطرناک خواهد بود

به گزارش رکنا، حمید اندرزچمنی مشاور عالی و رییس ارتباطات رسانه داخلی و خارجی شرکت دانش بنیان شینا سورن افرازبا اعلام این خبر اظهار داشت :

تنها راه برون رفت انسانها از آسیب های ناشی از حماقت های رفتاری هوش های مصنوعی ایمن سازی است .انسان‌ها دیگر خطری برای هم نخواهند داشت ، اما با وجود هوش مصنوعی و پیدایش ربات های گوناگون و خودکامه ، غیر کنترل برای انجام رفتارهای احمقانه نسل ما را با خطر بردگی بی‌انتها تحت حکومت فناوری نمردنی و همیشه زنده خودقرار خواهند داد.

چمنی در ادامه تشریح کرد :

بسیاری از محققان حوزه هوش مصنوعی به این باور رسیده اند که همان‌گونه که دانشمندان و مخترعان در قرون وسطی تکنیک های مرتبط با اختراع و کشفیات خود را آموختند و اما از علم و عمل پشت پرده ای آن‌ درکی نداشتند ، متخصصان هوش مصنوعی در جهان معاصر نیز ضمن رسیدن به نتایج لازم برای تکنولوژی مورد نظر خود، ممکن است نتوانند علم و عملکرد اساسی پشت آن را توضیح دهند. در واقع ، دانشمندان و محققان ممکن است نتوانند توضیح دهند رفتار های ماشین‌های مبتنی بر یادگیری عمیق انواعی از هوش مصنوعی چطور خواهد بود.

حمید اندرزچمنی مشاور عالی و رییس ارتباطات رسانه داخلی و خارجی شرکت دانش بنیان شینا سورن افراز با اعلام این خبر اظهار داشت : مسیر توسعه تکنولوژی در حال حاضر به سمت ایجاد هوش ابر انسانی پیش می‌رود و این فناوری دیجیتال حداکثر تا 5 سال دیگر عملی خواهد شد!این مساله وقتی مهم خواهد بود که بدانیم ممکن است عملکرد سیستم‌های مبتنی بر هوش مصنوعی خطرناک و حادثه‌ساز باشند . برای مثال سیستم هایی که به هوش مصنوعی تجهیز می شوند مثل اتومبیل‌ها ، خانه ها ، کارخانه ها ، پمپ بنزین ها و زیست محیط های جامعه ، زیر ساخت های حیاتی یک کشور که قرار است انواع خدمات رفاهی و آسایشی خود را مبتنی بر تکنولوژی هوش مصنوعی دریافت نمایند ، دچار مشکلات عدیده شوند .

چمنی در ادامه خاطر نشان کرد : ببینید در دنیای علم و فناوری این یک امر کاملا علمی و طبیعی اثبات شده است و بنوعی آزمون خود راپس داده است . اینکه هوش های مصنوعی از مدار کنترل خارج و در مسیر خودکامگی خود هدف خاصی را برای خودش تعیین کند ، ممکن است برای رسیدن به این هدف از روش‌ها و تکنیک‌هایی استفاده کند که موردقبول ما نیست.وبه آموزش هایی که برای ارایه خدمات دریافت کرده اند پاسخ مثبت ندهند را باید پذیرفت وایضا تبدیل شدن خیلی راحت آنها به هوش های سیاه را باورداشت . یعنی یک سرپیچی محض برای انجام اقدامات مخرب زا خودکامه خویش نسبت به امکان یا انسان .

مشاور عالی شرکت دانش بنیان شینا سورن افزار در ادامه خاطر نشان کرد : ماهیت هک‌پذیر بودن این هوش های مصنوعی در زندگی امروزه روز ما ، خطرات آن‌ها را به عنوان سیستم‌های خود ویرانگر افزایش می‌دهد.در واقع سیستم‌های هوش مصنوعی دربسیاری از مواقع ممکن است از یک فوق هوشمند هک شده و دستور گرفته و به یک ابر احمق با رفتار های احمقانه خطرناک تبدیل شوند.

چمنی در پایان اظهار داشت : امن بودن خدمات هوش های مصنوعی برای این تکنولوژی یک اساس و ضرورت است .این امنیت هیچگاه تضمین شده نخواهد بود تا زمانی که هوش ها از بستر اینترنت آنلاین استفاده نمایند.هوش مصنوعی « هولو روید » ساخته نخبگان شرکت دانش بنیان شینا سورن افراز ، ایمن ، سالم و مطمین بوده واست و با توجه به مکانیزم های هوشمندانه ای که برایش تعریف شده است جهت ارایه خدمات مختلف خود به امکان ها و انسانها هیچگاه بر بستر اینترنت آنلاین نبوده و تمام خدمات خودرا بصورت آفلاین ارایه خواهد نمود .این هوش هیچگاه مثل انواع هوش های مصنوعی جهان دست به رفتارهای خطرناک نخواهد زد چرا که هیچ ابر هوش فوقی نمی تواند هوش مصنوعی ما ، یعنی هولوروید را هک نموده و کنترل رفتاری آن را بدست بگیرد .