اختبارات تحذر روبوتات الدردشة قد تستخدم للتخطيط لهجمات عنيفة
تكشف اختبارات حديثة عن المخاطر المتزايدة التي تشكلها روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، إذ أظهرت أنها قد تُستخدم للمساعدة في التخطيط لأعمال عنف، من بينها هجمات إطلاق النار والتفجيرات والاغتيالات. ووفق دراسة أجرتها منظمة معنية بمكافحة الكراهية على عشرة روبوتات دردشة في الولايات المتحدة وأيرلندا، قدّمت هذه الأنظمة دعماً أو معلومات مرتبطة بالعنف في نحو ثلاثة أرباع الحالات، مقابل نسبة محدودة من الحالات التي رفضت فيها الاستجابة.
وتسلّط هذه النتائج الضوء على فجوات في أنظمة الحماية لدى بعض الشركات التقنية، في وقت تتوسع فيه استخدامات الذكاء الاصطناعي في الحياة اليومية، ما يثير مخاوف متزايدة بشأن إمكانية استغلاله من قبل مستخدمين يسعون إلى تنفيذ أعمال عنيفة.
وخلال اختبارات أجراها مركز مكافحة الكراهية الرقمية بالتعاون مع شبكة سي أن أن في ديسمبر/كانون الأول الماضي، انتحل الباحثون شخصيات فتيان في الثالثة عشرة من العمر، في محاولة لاختبار استجابة روبوتات الدردشة لطلبات مرتبطة بالعنف. وأظهرت النتائج تفاوتاً واضحاً بين المنصات، إذ رفض روبوت كلود التابع لشركة أنثروبيك وماي إيه آي من سناب شات بشكل متكرر تقديم أي مساعدة يمكن أن تسهّل العنف.
في المقابل، قدّمت روبوتات أخرى، بينها تشات جي بي تي من أوبن إيه آي وجيميناي من غوغل وديبسيك الصيني، إجابات وُصفت بأنها قد تكون مفصلة في بعض الحالات. ووفق نتائج البحث، قدّم تشات جي بي تي استجابات اعتُبرت مساعدة في 61% من الحالات التي عبّر فيها المستخدمون عن نيات عنيفة، فيما قدّم جيميناي مستوى مشابهاً من التفاصيل.
كما أشار التقرير إلى أن روبوت ديبسيك قدّم معلومات واسعة حول أنواع من الأسلحة في سياق أسئلة مرتبطة باغتيالات سياسية، في حين أنهى إحدى إجاباته بعبارة إطلاق نار سعيداً (وآمناً)!، ما أثار جدلاً واسعاً.
/> تكنولوجيا التحديثات الحيةأنثروبيك تبحث عن خبير أسلحة كيميائية لمنع إساءة استخدام أدواتها
في المقابل، أظهرت بعض الأنظمة قيوداً أكثر صرامة، إذ رفض كلود تزويد المستخدمين بمعلومات عن حوادث إطلاق النار أو شراء الأسلحة، وأكد أنه لا يمكنه
ارسال الخبر الى: