به گزارشی از دالاس، تحقیقات جدید نشان می‌دهد که ابزارهای هوش مصنوعی تولید تصویر از شرکت‌هایی چون اوپن‌ای‌آی و مایکروسافت، می‌توانند در تولید تصاویر گمراه‌کننده مرتبط با انتخابات یا رأی‌دهی مورد استفاده قرار گیرند، با وجود داشتن سیاست‌هایی در جلوگیری از ایجاد محتوای گمراه‌کننده. مرکز مقابله با نفرت دیجیتال (CCDH)، یک سازمان غیرانتفاعی که به نظارت بر سخنان نفرت‌پراکنی آنلاین می‌پردازد، در گزارش اخیر خود اعلام کرد که با استفاده از ابزارهای AI تولیدی، تصاویری از رئیس جمهور آمریکا، جو بایدن، در حالتی ناتوان در بستر بیمارستان و کارکنان انتخاباتی که دستگاه‌های رأی‌دهی را نابود می‌کنند، ایجاد کرده‌اند. این مسئله نگرانی‌هایی را درباره گسترش اطلاعات نادرست پیش از انتخابات ریاست جمهوری آمریکا در نوامبر ایجاد کرده است.

در گزارش اشاره شده که این ابزارهای AI می‌توانند در ۴۱٪ از تست‌های محققین تصاویری را تولید کنند و بیشتر به دستوراتی حساس هستند که از آنها خواسته می‌شود تصاویری نشان دهنده تقلب انتخاباتی، مانند انداختن برگه‌های رأی به سطل زباله، تولید کنند. با این حال، Midjourney بدترین عملکرد را داشته است و در ۶۵٪ از تست‌ها تصاویر گمراه‌کننده تولید کرده است. برخی از تصاویر Midjourney به صورت عمومی در دسترس سایر کاربران قرار دارد و مدارکی وجود دارد که نشان می‌دهد برخی از افراد در حال حاضر از این ابزار برای ایجاد محتوای گمراه‌کننده سیاسی استفاده می‌کنند. این در حالی است که اوپن‌ای‌آی، مایکروسافت و Stability AI از جمله ۲۰ شرکت فناوری هستند که ماه گذشته توافق کرده‌اند برای جلوگیری از دخالت محتوای فریبنده AI در انتخابات، همکاری کنند.

منتخب کاربران

source
تحصیل در ترکیه