مجلس الرقابة ينتقد سياسات الذكاء الاصطناعي في ميتا
أصدرت هيئة رقابة داخلية تابعة لشركة ميتا في حكمٍ نُشر أمس الثلاثاء، قراراً يفيد بأن تصنيف الشركة للمحتوى المُولّد بواسطة الذكاء الاصطناعي غير متسق. وأعرب مجلس الرقابة (هيئة داخلية لمراجعة قرارات الشركة حول المحتوى) عن قلقه من أنه على الرغم من الانتشار المتزايد للمحتوى المُتلاعب به عبر مختلف الصيغ، فإن تطبيق ميتا لسياسة الوسائط المُتلاعب بها غير متسق. وطالب القرار بأن تُعطي الشركة الأولوية للاستثمار في التكنولوجيا لرصد وتصنيف الصوت والفيديو المُتلاعب به.
وفي فبراير/شباط 2024، بدأت ميتا بوضع علامات مائية أو علامات مرئية على المحتوى المُولّد بواسطة الذكاء الاصطناعي، وذلك في محاولة لمساعدة المستخدمين على التمييز بين المحتوى الحقيقي والمُزيّف على منصات التواصل الاجتماعي التابعة لها، فيسبوك وإنستغرام وثريدز. ويُلزم قانون الذكاء الاصطناعي للاتحاد الأوروبي، وهو تشريع يُنظّم أدوات الذكاء الاصطناعي وفقاً للمخاطر التي تُشكّلها على المجتمع، الشركات التي تُنتج محتوى معدّلاً بأدوات توليد المحتوى بوضع علامة على هذا المحتوى تقول إنه مُولّد واصطناعي.
وصدر حكمٌ في إحدى الحالات التي قرّرت فيها ميتا عدم تصنيف مقطع صوتي يُحتمل أنه مُتلاعب به لسياسيين كرديين عراقيين يناقشان تزوير الانتخابات البرلمانية، قبل أسابيع من فتح باب الاقتراع. ونصّ الحكم على أن عدم تطبيق الشركة تلقائياً لتصنيف جميع حالات المحتويات المُتلاعب بها هو أمر غير مُتماسك وغير مُبرر. كما شدّد على ضرورة أن تُتيح ميتا تصنيفات المحتويات المُتلاعب بها باللغة المحلية على منصاتها.
وكانت شركة مارك زوكربيرغ قد أبلغت المجلس بأنها لا تستطيع رصد وتصنيف منشورات الصوت والفيديو تلقائياً، بل فقط الصور الثابتة. وهذا يعني أن النسخ المتعددة من المقطع الصوتي نفسه أو الفيديو قد لا تحظى بالمعاملة نفسها، وهو ما يُشير المجلس إلى أنه قد يُسبب مزيداً من الالتباس.
/> تكنولوجيا التحديثات الحيةميتا إيه آي قد ينشر محادثاتك من دون علمك
ضد اعتماد ميتا على جهات خارجية
وأعرب المجلس أيضاً عن قلقه إزاء اعتماد الشركة على جهات خارجية للتقييم الفني للمحتوى المُحتمل التلاعب به، وأضاف أنه ينبغي أن تُتاح هذه الخبرة
ارسال الخبر الى: