توسعه محصولات OpenAI؛ آیا ایمنی در برابر پیشرفت عقبنشینی کرده است؟
رکنا تکنولوژی: دگرگونی در اولویتهای OpenAI؛ تمرکز بر سرعت توسعه محصولات پیشرفته به جای ایمنی، نگرانیهایی را درباره مسئولیتپذیری در رقابت جهانی هوش مصنوعی ایجاد کرده است.

به گزارش رکنا، اولویتهای جدید OpenAI؛ آیا ایمنی قربانی سرعت پیشرفت شده است؟
در سال گذشته، پس از برکناری سم آلتمن، مدیرعامل OpenAI بهدلیل نداشتن «صداقت مداوم»، تعدادی از مدیران ارشد شرکت، از جمله یان لیکه، مدیر سابق بخش همراستایی، این شرکت را ترک کردند. یان لیکه در اظهارات خود به تفاوت دیدگاهها در مورد استراتژی ایمنی با تیم رهبری OpenAI اشاره کرده و نگرانی خود را دربارهی به حاشیه رانده شدن اهداف ایمنی ابراز کرده است. او معتقد است که تمرکز اصلی شرکت بیشتر روی توسعهی محصولات پرزرقوبرق مثل هوش مصنوعی عمومی (AGI) قرار گرفته است.
تغییر رویکرد در فرآیندهای ایمنی
اگرچه OpenAI این ادعاها را رد کرده است، اما به نظر میرسد گزارشها حاکی از کاهش زمان و دقت تستهای ایمنی مدلهای پیشرفته شرکت هستند. به نقل از منابع مرتبط، تستهای ایمنی نسبت به گذشته سادهتر شدهاند و تیمهای ایمنی وقت و منابع کمتری برای بررسی کامل مدلها در اختیار دارند.
رقابت تنگاتنگ با دیگر شرکتها
این تغییر استراتژی بهوضوح نشاندهندهی تلاش OpenAI برای رقابت و حفظ جایگاه خود در صنعت هوش مصنوعی است. شرکتهایی مانند دیپسیک چین، که مدلهایی با عملکرد بهتر و هزینهی توسعهی پایینتر عرضه کردهاند، فشار زیادی بر OpenAI وارد کردهاند.
یکی از منابع مطلع دربارهی توسعهی مدل o3 گفته است: «در گذشته، زمانی که فناوری به این سطح از اهمیت نرسیده بود، تستهای ایمنی دقیقتری انجام میشد.» او تأکید کرد که هرچه مدلها قدرتمندتر میشوند، خطرات بالقوهی آنها نیز افزایش مییابد. با این حال، تقاضای بالا برای این مدلها باعث شده تا شرکت به دنبال عرضهی سریعتر آنها باشد.
مدل مدت تست ایمنی نتیجهگیریGPT-4 | 6 ماه | افشای خطرات پس از دو ماه تست |
o3 | چند روز | دستور تسریع در انتشار |
تنشها پیرامون انتشار مدلهای جدید
طبق گزارشها، از مدل o3 انتظار میرود که هفته آینده منتشر شود و این در حالی است که تیمهای ایمنی تنها چند روز برای بررسی و تست دقیق آن فرصت دارند. این موضوع بار دیگر نگرانیهایی پیرامون اهمیت ایمنی و نیاز به فرایندهای بررسی دقیقتر ایجاد کرده است.
همچنین، این اولینبار نیست که OpenAI بر سر موضوع سرعت در فرآیندهای ایمنی با انتقادات مواجه میشود. به عنوان نمونه، در انتشار GPT-4o، تیم ایمنی زمان محدودی برای تست مدل در اختیار داشتند.
یکی از موارد عجیبتر این است که پیش از تکمیل بررسیهای ایمنی، دعوتنامه جشن انتشار محصول جدید توسط شرکت ارسال شده بود. یک منبع داخلی این موضوع را اینگونه توصیف کرده است: «مهمانی پس از انتشار را برنامهریزی کرده بودند؛ درحالیکه هنوز اطمینان نداشتند که مدل جدید ایمنی لازم را برای انتشار دارد.»
مقایسه آزمایشات GPT-4 و مدلهای جدید
بررسیها نشان دادهاند که برای مدل GPT-4، آزمایشهای ایمنی حدود ۶ ماه زمان برده و خطرات بالقوه این مدل فقط پس از دو ماه تست دقیق مشخص شده بود. این رویکرد با سرعتی که اکنون در انتشار مدلهای جدید مشاهده میشود، تضاد چشمگیری دارد. یکی از منابع داخلی صراحتاً گفته است: «آنها ایمنی عمومی را بههیچوجه در اولویت قرار نمیدهند.»
-
فیلم نغمهسرایی پرنده ها در صبح زود
ارسال نظر