به گزارشی از دالاس، تحقیقات جدید نشان میدهد که ابزارهای هوش مصنوعی تولید تصویر از شرکتهایی چون اوپنایآی و مایکروسافت، میتوانند در تولید تصاویر گمراهکننده مرتبط با انتخابات یا رأیدهی مورد استفاده قرار گیرند، با وجود داشتن سیاستهایی در جلوگیری از ایجاد محتوای گمراهکننده. مرکز مقابله با نفرت دیجیتال (CCDH)، یک سازمان غیرانتفاعی که به نظارت بر سخنان نفرتپراکنی آنلاین میپردازد، در گزارش اخیر خود اعلام کرد که با استفاده از ابزارهای AI تولیدی، تصاویری از رئیس جمهور آمریکا، جو بایدن، در حالتی ناتوان در بستر بیمارستان و کارکنان انتخاباتی که دستگاههای رأیدهی را نابود میکنند، ایجاد کردهاند. این مسئله نگرانیهایی را درباره گسترش اطلاعات نادرست پیش از انتخابات ریاست جمهوری آمریکا در نوامبر ایجاد کرده است.
در گزارش اشاره شده که این ابزارهای AI میتوانند در ۴۱٪ از تستهای محققین تصاویری را تولید کنند و بیشتر به دستوراتی حساس هستند که از آنها خواسته میشود تصاویری نشان دهنده تقلب انتخاباتی، مانند انداختن برگههای رأی به سطل زباله، تولید کنند. با این حال، Midjourney بدترین عملکرد را داشته است و در ۶۵٪ از تستها تصاویر گمراهکننده تولید کرده است. برخی از تصاویر Midjourney به صورت عمومی در دسترس سایر کاربران قرار دارد و مدارکی وجود دارد که نشان میدهد برخی از افراد در حال حاضر از این ابزار برای ایجاد محتوای گمراهکننده سیاسی استفاده میکنند. این در حالی است که اوپنایآی، مایکروسافت و Stability AI از جمله ۲۰ شرکت فناوری هستند که ماه گذشته توافق کردهاند برای جلوگیری از دخالت محتوای فریبنده AI در انتخابات، همکاری کنند.
source
تحصیل در ترکیه