برخی از بزرگترین شرکتهای هوش مصنوعی از جمله گوگل، OpenAI، مایکروسافت، آمازون، انویدیا و اینتل در حال همکاری با یکدیگر برای تشکیل ائتلافی برای هوش مصنوعی امن (CoSAI) هستند. هدف این همکاری بررسی «چشمانداز تکهتکهشده امنیت هوش مصنوعی» با فراهمکردن دسترسی به روشها، چارچوبها و ابزارهای منبع باز است.
در بیانیه مربوط به معرفی این همکاری، از CoSAI بهعنوان یک ابتکار منبع باز یاد شده است که هدف آن ارائه راهنمایی و ابزارهای موردنیاز برای ساخت سیستمهای هوش مصنوعی امن توسط تمام متخصصان و توسعهدهندگان است.
CoSAI طیف گسترده و متنوعی از ذینفعان که شامل رهبران صنعت هوش مصنوعی، دانشگاهیان و کارشنان دیگر میشود را بههمراه دارد که روی چشمانداز امنیت هوش مصنوعی تمرکز میکنند.
حامیان اصلی تاسیس CoSAI شامل شرکتهایی از جمله گوگل، IBM، اینتل، مایکروسافت، انویدیا، آمازون، OpenAI و پیپل میشوند.
در متن این بیانیه نوشتهشده:
«هوش مصنوعی بهسرعت در حال تغییر دنیای ما است و پتانسیل بسیار زیادی برای حل مشکلات پیچیده دارد. برای اطمینان از اعتماد به هوش مصنوعی و ایجاد مسئولانه آنها، بسیار مهم است که تکنیکهایی را توسعه دهیم و به اشتراک بگذاریم که روی امنیت تمرکز دارند، آسیبپذیریهای احتمالی سیستمهای هوش مصنوعی را شناسایی و کاهش میدهند و منجر به ایجاد سیستمهایی میشود که طراحی امنی دارند.»
نظر غولهای فناوری در حمایت از امنیت هوش مصنوعی
در انتهای مطلب نیز نظر برخی مدیران غولهای فناوری در مورد این ابتکار پرسیده شده است. «هدر ادکینز»، معاون امنیتی گوگل در حمایت از CoSAI میگوید:
«CoSAI به سازمانهای بزرگ و کوچک کمک میکند تا هوش مصنوعی را به طور ایمن و مسئولانه به ابزارهای خود اضافه کنند. به آنها کمک میکند تا از مزایای آن استفاده کنند و در عین حال خطرات هوش مصنوعی را کاهش دهند.»
مایکروسافت که ماه گذشته شهادت داده بود امنیت حتی از هوش مصنوعی هم برای آن مهمتر خواهد بود، در این بیانیه یکبار دیگر به تعهد خود برای تمرکز بر امنیت در بطن فرایند توسعه سیستمهای هوش مصنوعی اشاره کرده است.
source