OpenAI وارد حوزه‌ای پیچیده شده و در حال سرمایه‌ گذاری روی تحقیقاتی با موضوع «اخلاق هوش مصنوعی» است. طبق اطلاعاتی که از طریق پرونده‌ای در سازمان مالیاتی آمریکا (IRS) و با گزارش TechCrunch منتشر شده، بخش غیرانتفاعی OpenAI به پژوهشگران دانشگاه دوک کمک مالی کرده تا پروژه‌ای با عنوان «تحقیق در مورد اخلاق هوش مصنوعی» را پیش ببرند. این پروژه بخشی از یک ابتکار بزرگ‌تر است که در طی سه سال مبلغ ۱ میلیون دلار برای مطالعه راهکارهایی جهت آگاه‌ سازی اخلاقی هوش مصنوعی اختصاص داده است.

 

سرمایه‌ گذاری OpenAI در پروژه اخلاق هوش مصنوعی

 

این پروژه توسط والتر سینوت-آرمسترانگ، استاد اخلاق عملی، و جانا شیچ بورگ هدایت می‌شود. هر دو از متخصصان شناخته‌ شده در زمینه تصمیم‌ گیری اخلاقی توسط هوش مصنوعی هستند. سینوت-آرمسترانگ یکی از نام‌های برجسته در حوزه فلسفه است و در زمینه‌هایی مانند اخلاق کاربردی، روان‌ شناسی اخلاقی و علوم اعصاب فعالیت می‌کند. تیم او در دانشگاه دوک روی مسائل اخلاقی واقعی کار کرده‌اند، از جمله طراحی الگوریتم‌هایی که تعیین می‌کنند چه کسی باید پیوند اعضا دریافت کند. در این پروژه، دیدگاه‌های عمومی و تخصصی بررسی می‌شوند تا عدالت سیستم‌ها بهبود یابد.

پروژه‌ای که با کمک مالی OpenAI اجرا می‌شود، به دنبال ایجاد الگوریتم‌هایی است که بتوانند قضاوت‌های اخلاقی انسان را در حوزه‌هایی مانند پزشکی، حقوق و تجارت پیش‌ بینی کنند. هرچند ایده امیدوارکننده‌ای است، اما تجربه نشان می‌دهد که این کار چالش‌های زیادی دارد. به عنوان نمونه، پروژه Ask Delphi از مؤسسه Allen AI با هدف ارائه پاسخ‌های اخلاقی طراحی شده بود. این ابزار توانایی حل مسائل ساده را داشت، اما به راحتی با تغییرات جزئی در بیان سوالات به پاسخ‌های غیراخلاقی سوق داده می‌شد.

مشکل اصلی به نحوه عملکرد هوش مصنوعی برمی‌گردد: مدل‌های یادگیری ماشینی نتایج را بر اساس داده‌های آموزشی پیش‌ بینی می‌کنند که این داده‌ها اغلب تعصبات فرهنگ‌های غالب را بازتاب می‌دهند. این مسئله باعث نگرانی‌های بزرگی شده که آیا هوش مصنوعی می‌تواند واقعاً «اخلاقی» باشد؟ به‌ ویژه زمانی که اخلاق در جوامع مختلف متفاوت است و چارچوب‌های پذیرفته‌ شده جهانی ندارد.

اینکه هوش مصنوعی بتواند به طور معناداری با ارزش‌های انسانی هماهنگ شود—یا حتی اینکه آیا باید این کار را انجام دهد—هنوز یک سوال باز است. اما اگر این تلاش به نتیجه برسد، می‌تواند تأثیرات عمیقی بر اعتماد ما به ماشین‌ها در تصمیم‌ گیری‌های اخلاقی بگذارد. فعلاً دنیا باید تا سال ۲۰۲۵، زمانی که این کمک‌ هزینه پایان می‌یابد، منتظر بماند تا ببیند آیا پروژه «اخلاق هوش مصنوعی» به پیشرفت چشمگیری دست یافته است یا خیر.

source