برخی از بزرگ‌ترین شرکت‌های هوش مصنوعی از جمله گوگل، OpenAI، مایکروسافت، آمازون، انویدیا و اینتل در حال همکاری با یکدیگر برای تشکیل ائتلافی برای هوش مصنوعی امن (CoSAI) هستند. هدف این همکاری بررسی «چشم‌انداز تکه‌تکه‌شده امنیت هوش مصنوعی» با فراهم‌کردن دسترسی به روش‌ها، چارچوب‌ها و ابزارهای منبع باز است.

در بیانیه مربوط به معرفی این همکاری، از CoSAI به‌عنوان یک ابتکار منبع باز یاد شده است که هدف آن ارائه راهنمایی و ابزارهای موردنیاز برای ساخت سیستم‌های هوش مصنوعی امن توسط تمام متخصصان و توسعه‌دهندگان است.

CoSAI طیف گسترده و متنوعی از ذینفعان که شامل رهبران صنعت هوش مصنوعی، دانشگاهیان و کارشنان دیگر می‌شود را به‌همراه دارد که روی چشم‌انداز امنیت‌ هوش‌ مصنوعی تمرکز می‌کنند.

حامیان اصلی تاسیس CoSAI شامل شرکت‌هایی از جمله گوگل، IBM، اینتل، مایکروسافت، انویدیا، آمازون، OpenAI و پی‌پل می‌شوند.

در متن این بیانیه نوشته‌شده:

«هوش مصنوعی به‌سرعت در حال تغییر دنیای ما است و پتانسیل بسیار زیادی برای حل مشکلات پیچیده دارد. برای اطمینان از اعتماد به هوش مصنوعی و ایجاد مسئولانه آن‌ها، بسیار مهم است که تکنیک‌هایی را توسعه دهیم و به اشتراک بگذاریم که روی امنیت تمرکز دارند، آسیب‌پذیری‌های احتمالی سیستم‌های هوش مصنوعی را شناسایی و کاهش می‌دهند و منجر به ایجاد سیستم‌هایی می‌شود که طراحی امنی دارند.»

نظر غول‌های فناوری در حمایت از امنیت هوش مصنوعی

در انتهای مطلب نیز نظر برخی مدیران غول‌های فناوری در مورد این ابتکار پرسیده شده است. «هدر ادکینز»، معاون امنیتی گوگل در حمایت از CoSAI می‌گوید:

«CoSAI به سازمان‌های بزرگ و کوچک کمک می‌کند تا هوش مصنوعی را به طور ایمن و مسئولانه به ابزارهای خود اضافه کنند. به آن‌ها کمک می‌کند تا از مزایای آن استفاده کنند و در عین حال خطرات هوش مصنوعی را کاهش دهند.»

مایکروسافت که ماه گذشته شهادت داده بود امنیت‌ حتی از هوش مصنوعی هم برای آن مهم‌تر خواهد بود، در این بیانیه یک‌بار دیگر به تعهد خود برای تمرکز بر امنیت در بطن فرایند توسعه سیستم‌های هوش مصنوعی اشاره کرده است.

source