«سم آلتمن»، مدیرعامل OpenAI اعلام کرد که این استارتاپ به‌عنوان بخشی از برنامه‌های خود در زمینه ایمنی محصولاتش، مدل هوش مصنوعی بعدی خود را ابتدا در اختیار موسسه ایمنی هوش‌مصنوعی ایالات متحده قرار خواهد داد.

همانطور که تک‌کرانچ در گزارش خود توضیح می‌دهد، درحال‌حاضر نگرانی‌های زیادی از این بابت وجود دارد که OpenAI بیشتر به‌دنبال توسعه مدل‌های هوش‌مصنوعی قدرتمند است و به‌همین ایمنی را چندان در اولویت‌های خود قرار نداده است.

اهمیت ایمنی هوش مصنوعی برای OpenAI

با اشاره به این موضوع، مدیرعامل OpenAI در ایکس درباره اهمیت ایمنی برای این استارتاپ می‌گوید:

«همانطور که در ژوئیه گذشته نیز گفتیم، ما متعهد هستیم که حداقل 20 درصد از منابع محاسباتی خود را به تلاش‌های مربوط به ایمنی کل شرکت اختصاص دهیم.

تیم ما در حال توافق با موسسه ایمنی هوش مصنوعی ایالات متحده در زمینه‌ای است که دسترسی زودهنگام مدل پایه بعدی خود را برای آن فراهم می‌کند تا بتوانیم با همکاری یکدیگر علم ارزیابی‌های هوش مصنوعی را به جلو پیش ببریم. برای این همکاری هیجان‌زده هستیم!»

در ماه‌های گذشته، گفته‌شده بود که OpenAI واحدی را منحل کرده که روی ایمنی سیستم‌های هوش مصنوعی کار می‌کردند. همین موضوع باعث شده بود تا دو رهبر این استارتاپ با نام‌ها «جان لیکه» که اکنون تحقیقات ایمنی استارتاپ هوش‌مصنوعی آنتروپیک را رهبری می‌کند و «ایلیا سوتسکور» که شرکت هوش‌مصنوعی متمرکز بر ایمنی خود با نام Safe Superintelligence را تاسیس کرده است، از OpenAI جدا شوند.

موسسه ایمنی هوش‌مصنوعی در اوایل سال جاری میلادی توسط موسسه ملی استاندارد و فناوری (NIST) کار خود را آغاز کرد. در وب‌سایت NIST، هدف آن «توسعه دستورالعمل‌ها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای اندازه‌گیری‌ها و سیاست‌های هوش مصنوعی و ایجاد پایه‌ای برای ایمنی هوش‌مصنوعی در سراسر جهان» یاد شده است.

source