تحذير بريطاني من مخاطر الذكاء الاصطناعي على الخدمات المالية
دعت مجموعة من نواب البرلمان البريطاني من مختلف الأحزاب الجهات الرقابية إلى اعتماد اختبارات ضغط خاصة بالذكاء الاصطناعي في الخدمات المالية، محذّرة من أن الاستخدام المتسارع لهذه التكنولوجيا قد يعرّض المستهلكين لمخاطر مباشرة ويهدد استقرار الأسواق في حال غياب الرقابة المسبقة. وقالت اللجنة البرلمانية للخزانة، في تقرير صدر اليوم الثلاثاء عن الذكاء الاصطناعي في القطاع المالي، إن هيئة السلوك المالي البريطانية (FCA) وبنك إنكلترا لا يقومان حالياً بما يكفي لمواكبة المخاطر الناشئة، داعيةً إلى التخلي عمّا وصفته بنهج الانتظار والترقّب الذي تتبعه الجهات التنظيمية.
وأكد التقرير ضرورة البدء بإجراء اختبارات ضغط مخصصة للأنظمة المعتمدة على الذكاء الاصطناعي، بهدف مساعدة المصارف وشركات الخدمات المالية على الاستعداد لصدمات محتملة في الأسواق قد تنتج من خلل أو تفاعل غير متوقع في الأنظمة المؤتمتة. كذلك طالبت اللجنة هيئة السلوك المالي بنشر إرشادات تنظيمية مفصلة بحلول نهاية عام 2026 توضّح كيفية تطبيق قواعد حماية المستهلك على أدوات الذكاء الاصطناعي، إضافة إلى تحديد مستوى الفهم والمسؤولية المتوقع من كبار المديرين التنفيذيين تجاه الأنظمة التي يشرفون عليها. وقالت رئيسة اللجنة، ميغ هيلير، في بيان إن الأدلة المتوافرة لا تبعث على الاطمئنان، مضيفة: لا أشعر بالثقة بأن نظامنا المالي مستعد في حال وقوع حادث كبير مرتبط بالذكاء الاصطناعي، وهو أمر يدعو إلى القلق، بحسب رويترز.
مخاطر تتجاوز الاستخدامات التقنية
وتأتي هذه التحذيرات في وقت يشهد فيه القطاع المالي البريطاني تسارعاً كبيراً في تبنّي تقنيات الذكاء الاصطناعي، إذ تُظهر البيانات أن نحو ثلاثة أرباع الشركات المالية في المملكة المتحدة تستخدم هذه التكنولوجيا حالياً في وظائف أساسية، تشمل معالجة مطالبات التأمين، وتقييم الجدارة الائتمانية، وتحليل المخاطر، وخدمة العملاء. وأفادت هيئة السلوك المالي لوكالة رويترز في أواخر العام الماضي بأن السباق المتزايد بين البنوك لاعتماد ما يُعرف بـالذكاء الاصطناعي الوكيلي (Agentic AI) قادر على اتخاذ قرارات وتنفيذ إجراءات ذاتية بخلاف الذكاء الاصطناعي التوليدي، وهو يخلق مستويات جديدة من المخاطر، خصوصاً بالنسبة إلى عملاء التجزئة.
ورغم إقرار التقرير بالفوائد التشغيلية والاقتصادية
ارسال الخبر الى: