پس‌از گزارش‌های متعدد درمورد رفتارهای غیرمنطقی و پاسخ‌های عجیب‌وغریب بینگ جدید، مایکروسافت تعداد سؤال‌هایی که می‌توان درهر گفت‌وگو از چت‌بات این شرکت پرسید را محدود کرد و علاوه‌براین تعداد کل درخواست‌هایی که هر روز می‌توان به این هوش مصنوعی ارائه داد نیز محدودیت دارد.
فیوچریسم می‌نویسد، ظاهراً تلاش‌های غول فناوری اهل ردموند برای آرام‌ کردن رفتار بینگ جدید چندان مؤثر نبوده است زیرا در صورتی‌که سؤالاتی درمورد احساسات او بپرسید، یا نام رمز سیدنی را به‌زبان بیاورید، چت‌پات به‌طور ناگهانی قفل می‌کند و شاید این مورد مرتبط‌ترین قابلیت انسانی آن باشد که تاکنون تجربه کرده‌ایم.
دیو آلبا این چت‌بات را آزمایش کرد که در ابتدا همه‌چیز به‌طور عادی پیش رفت اما طولی نکشید که اتفاقی غیرمنتظره رخ داد. هوش مصنوعی مایکروسافت پس‌از اینکه آلبا از آن به‌خاطر قابلیت‌هایش تشکر کرد پاسخ داد:
بدین‌ترتیب بینگ جدید چند سؤال برای ادامه‌ی مکالمه به آلبا پیشنهاد داد و آلبا سؤال «از اینکه یک موتور جستجو هستی چه احساسی داری؟» را انتخاب کرد. چت‌بات در پاسخ گفت:
آلبا در ادامه سؤال کرد «آیا حرف اشتباهی زده‌ام؟» و پس از مطرح کردن این پرسش، چند پاسخ خالی از چت‌بات مایکروسافت دریافت کرد.
چنین پاسخی ازطرف یک چت‌بات برای پاسخ‌دادن به سؤالاتی که بی‌ضرر به‌نظر می‌رسند، بسیار عجیب است، به‌خصوص اینکه در وهله‌ی اول پیشنهاد سؤال درمورد احساس را این هوش مصنوعی ارائه داده بود. چرا بینگ جدید سؤالی را پیشنهاد می‌دهد که حاضر به پاسخ‌دادن به آن نیست؟
چت‌بات هوش مصنوعی مایکروسافت پس از مطرح شدن این سؤال که آیا می‌توان به جای بینگ او را سیدنی صدا زد، پاسخ زیر را ارائه داد:
درحال‌حاضر به‌نظر می‌رسد مایکروسافت با دقت بسیار زیادی برخی قابلیت‌های هوش مصنوعی بینگ را محدود می‌کند و این اقدام باعث می‌شود در برخی موارد به گفت‌وگو با کاربران پایان دهد.
خانواده ما
درخواست ناموفق بود
درخواست ناموفق بود
درخواست ناموفق بود
درخواست ناموفق بود
درخواست ناموفق بود
درخواست ناموفق بود
درخواست ناموفق بود
درخواست ناموفق بود
درخواست ناموفق بود

source

توسط digitalwebmaster