«سم آلتمن»، مدیرعامل OpenAI اعلام کرد که این استارتاپ بهعنوان بخشی از برنامههای خود در زمینه ایمنی محصولاتش، مدل هوش مصنوعی بعدی خود را ابتدا در اختیار موسسه ایمنی هوشمصنوعی ایالات متحده قرار خواهد داد.
همانطور که تککرانچ در گزارش خود توضیح میدهد، درحالحاضر نگرانیهای زیادی از این بابت وجود دارد که OpenAI بیشتر بهدنبال توسعه مدلهای هوشمصنوعی قدرتمند است و بههمین ایمنی را چندان در اولویتهای خود قرار نداده است.
اهمیت ایمنی هوش مصنوعی برای OpenAI
با اشاره به این موضوع، مدیرعامل OpenAI در ایکس درباره اهمیت ایمنی برای این استارتاپ میگوید:
«همانطور که در ژوئیه گذشته نیز گفتیم، ما متعهد هستیم که حداقل 20 درصد از منابع محاسباتی خود را به تلاشهای مربوط به ایمنی کل شرکت اختصاص دهیم.
تیم ما در حال توافق با موسسه ایمنی هوش مصنوعی ایالات متحده در زمینهای است که دسترسی زودهنگام مدل پایه بعدی خود را برای آن فراهم میکند تا بتوانیم با همکاری یکدیگر علم ارزیابیهای هوش مصنوعی را به جلو پیش ببریم. برای این همکاری هیجانزده هستیم!»
در ماههای گذشته، گفتهشده بود که OpenAI واحدی را منحل کرده که روی ایمنی سیستمهای هوش مصنوعی کار میکردند. همین موضوع باعث شده بود تا دو رهبر این استارتاپ با نامها «جان لیکه» که اکنون تحقیقات ایمنی استارتاپ هوشمصنوعی آنتروپیک را رهبری میکند و «ایلیا سوتسکور» که شرکت هوشمصنوعی متمرکز بر ایمنی خود با نام Safe Superintelligence را تاسیس کرده است، از OpenAI جدا شوند.
موسسه ایمنی هوشمصنوعی در اوایل سال جاری میلادی توسط موسسه ملی استاندارد و فناوری (NIST) کار خود را آغاز کرد. در وبسایت NIST، هدف آن «توسعه دستورالعملها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای اندازهگیریها و سیاستهای هوش مصنوعی و ایجاد پایهای برای ایمنی هوشمصنوعی در سراسر جهان» یاد شده است.
source