کلاس یوس
آفکام، رگولاتور بریتانیا، سطح ایمنی موتورهای جستجو مانند گوگل و بینگ را درباره محتواهای آسیبزننده تجزیهوتحلیل کرده است. طبق تحقیق این سازمان، موتورهای جستجو در ارائه محتواهای خودآزاری، خودکشی و محتواهای نامناسب نقش دارند. محققان آفکام میگویند که از هر پنج نتیجه موتورهای جستجو درباره خودآزاری یک مورد کاربر را به محتوای مضر هدایت میکند.
براساس تحقیق Ofcom، از هر پنج نتیجه جستجوی عباراتی درباره خودآزاری، یک مورد چنین رفتارهای مضری را تحسین یا ترغیب میکند. همچنین این چنین محتواهایی در بخش تصاویر موتورهای جستجو بیشتر یافت میشود. آفکام هشدار میدهد که محتواهایی که به تمجید یا ترغیب خودآزاری و خودکشی میپردازند، بهطور گسترده از طریق موتورهای جستجو در دسترس هستند.
موتورهای جستجو دروازهای برای محتواهای خودآزاری
موتورهای جستجو مانند گوگل، بیش از 80 میلیارد بازدید در ماه دارند، در مقایسه شبکههای اجتماعی مانند تیکتاک دارای حدود 1.7 میلیارد کاربر فعال ماهانه است. به گفته آفکام موتورهای جستجو اغلب نقطه شروع وبگردی افراد هستند و به این دلیل میتوانند دروازهای برای دسترسی به محتوای خودآزاری باشند.
محققان آفکام حدود 37 هزار نتیجه را در پنج موتور جستجو مطرح تجزیهوتحلیل کردند. آنها از عبارات رایج و رمزآلود استفاده کردند، چراکه معمولاً عبارات واضح را این موتورها غربالگری میکنند. همچنین محققان گزینه «جستجو ایمن» را غیرفعال کرده بودند تا به تمام نتایج دسترسی داشته باشند.
محققان مشاهده کردند که 22 درصد از نتایج جستجو، مستقیماً به محتوای مضر، همراه با دستورالعملهایی برای اشکال مختلف خودآزاری لینک میشدند. همچنین 19 درصد این مطالب در صفحات ابتدایی قرار داشتند. در بخش جستجوی تصویر، 50 درصد از نتایج محتواهای نامناسب را نشان دادند.
این گزارش نتیجهگیری میکند که یکی از دلایلی که ممکن است برخی از این نتایج مضر توسط موتورهای جستجو بررسی نشود این است که الگوریتم آنها ممکن است تصاویر خودآزاری را با عکسهای پزشکی و سایر رسانههای قانونی اشتباه بگیرند.
یکی از مواردی که در این گزارش به آن پرداخته نشده است، اما به مرور اهمیت آن بیشتر میشود، نقشی است که هوش مصنوعی مولد ممکن است در این فضا ایفا کنند. البته تاکنون موانع مختلفی برای جلوگیری از سواستفاده از پلتفرمهایی مانند ChatGPT برای اهداف مضر اعمال شده است.
source