الهيئات المالية العالمية تشدد الرقابة على مخاطر الذكاء الاصطناعي في القطاع المالي، مع تزايد اعتماد البنوك والمؤسسات المالية على تقنيات الذكاء الاصطناعي كوسيلة لتحسين الإنتاجية ورفع كفاءة العمليات، اتجهت الهيئات التنظيمية إلى فرض مراقبة مشددة على هذه التكنولوجيا، وذلك للحد من المخاطر التي قد تؤثر سلبًا على الاستقرار المالي العالمي، فبينما تتوقع البنوك فوائد كبيرة، تؤكد الجهات الرقابية الحاجة إلى تقنين هذا الاستخدام بحذر.
مخاطر “سلوك القطيع” في القطاع المالي بسبب الاعتماد على نماذج الذكاء الاصطناعي
يبرز مفهوم “سلوك القطيع” كمخاوف أساسية مرتبطة باستخدام الذكاء الاصطناعي في القطاع المالي، حيث أشار مجلس الاستقرار المالي (FSB) التابع لمجموعة العشرين (G20) إلى أن اعتماد العديد من المؤسسات على نفس نماذج الذكاء الاصطناعي والأجهزة ذات الخصائص المماثلة قد يؤدي إلى تقليل تنوع القرارات المالية على مستوى النظام ككل. يتسبب هذا الاعتماد المتشابه في خلق مخاطر جماعية تهدد الاستقرار المالي، إذ يمكن أن يفتح الباب أمام نقاط ضعف ينجم عنها اضطرابات كبيرة إذا لم تتوفر بدائل متعددة تسمح للمؤسسات بالتكيف السريع والمستقل أمام المتغيرات بالسوق.
تطوير قدرات الهيئات الرقابية والبنوك المركزية لمواجهة تحديات الذكاء الاصطناعي في القطاع المالي
تعزز الذكاء الاصطناعي الحاجة إلى رفع كفاءة الرقابة المالية؛ إذ أكدت مجموعة بنك التسويات الدولية (BIS) على أهمية تطوير قدرات البنوك المركزية والهيئات الرقابية لمواكبة الابتكارات السريعة في مجال الذكاء الاصطناعي. لا يقتصر تعزيز القدرات على الفهم التقني فقط، بل يشمل أيضاً تطبيقات عملية لتكنولوجيا الذكاء الاصطناعي في عمليات الرقابة والتنظيم. وهذا يشكل خطوة حاسمة لتمكين هذه الجهات من تنظيم ومراقبة الاستخدامات الواعدة والمثيرة للقلق على حد سواء في القطاع المالي.
السباق العالمي لتنظيم استخدام الذكاء الاصطناعي وتأثيره على الأسواق المالية والتهديدات السيبرانية
يتنافس العالم بين الولايات المتحدة، الصين، ودول أخرى لتطوير تقنيات التعلم الآلي والذكاء الاصطناعي المتقدمة، مما يجعل وجود أطر تنظيمية فعّالة ضرورة ملحة لضمان استخدام هذه التقنيات بشكل آمن ومستدام في القطاع المالي. وفي حين لم يثبت تقرير مجلس الاستقرار المالي وجود تأثير مباشر قوي لترابطات السوق الناتجة عن الذكاء الاصطناعي على نتائج الأسواق المالية، إلا أنه حذر من تصاعد مخاطر الهجمات السيبرانية التي تعتمد على الذكاء الاصطناعي، وازدياد احتمالات الاحتيال الإلكتروني باستخدام هذه التقنيات الحديثة.
- انتشار نماذج ذكاء اصطناعي متشابهة يهدّد التنوع في القرارات المالية
- ضرورة تطوير مهارات البنوك المركزية لمواكبة التطورات التقنية
- تشديد الرقابة لضمان الاستخدام الآمن والمستدام للذكاء الاصطناعي
- زيادة المخاطر السيبرانية والاحتيال الإلكتروني المرتبط بالذكاء الاصطناعي
| التقنية | الدولة الرائدة | أهمية التنظيم |
|---|---|---|
| التعلم الآلي | الولايات المتحدة، الصين | ضمان استخدام آمن ومستدام |
| الذكاء الاصطناعي في الرقابة | مجموعة بنك التسويات الدولية | تعزيز قدرات المؤسسات الرقابية |
بدأ الاتحاد الأوروبي بالفعل اعتماد قوانين تنظيمية صارمة تهدف إلى ضبط المخاطر المصاحبة للذكاء الاصطناعي في القطاع المالي، وأبرزها قانون المرونة التشغيلية الرقمية (DORA) الذي بدأ تطبيقه في يناير 2025، إذ يهدف لضمان قدرة المؤسسات المالية على المحافظة على مرونة أنظمتها الرقمية للتصدي لأي مخاطر تكنولوجية محتملة، خصوصاً تلك المتعلقة بتقنيات الذكاء الاصطناعي، مما يعكس الحاجة الملحة لتنظيم أكثر صرامة وحوكمة محكمة في ظل التطورات المتسارعة ومخاطر الذكاء الاصطناعي على المستوى العالمي.
