قانون الاتحاد الأوروبي للذكاء الاصطناعي (قانون الذكاء الاصطناعي) هو قانون تاريخي يهدف إلى ضمان التطوير الأخلاقي والآمن لتقنيات الذكاء الاصطناعي ونشرها واستخدامها. وبينما تتصارع المؤسسات في جميع أنحاء العالم مع آثاره، فإن فهم أحكامه الأساسية وجدوله الزمني أمر بالغ الأهمية للشركات لتظل متوافقة وتنافسية.
تستكشف هذه المقالة كيفية تأثير قانون الذكاء الاصطناعي على القطاعات الرئيسية، بما في ذلك التمويل والتكنولوجيا والموارد البشرية، مع تسليط الضوء على التواريخ المهمة التي يجب الاستعداد لها.
فهم قانون الاتحاد الأوروبي للذكاء الاصطناعي
يصنف قانون الذكاء الاصطناعي أنظمة الذكاء الاصطناعي بناءً على مخاطرها المحتملة، ويحدد القواعد والمتطلبات لكل فئة:
- المخاطر غير المقبولة: تُحظر أنظمة الذكاء الاصطناعي التي تشكل تهديدًا واضحًا للسلامة أو الحقوق الأساسية، مثل التسجيل الاجتماعي من قبل الحكومات.
- المخاطر العالية: تخضع الأنظمة المستخدمة في المجالات الحرجة مثل التوظيف والخدمات المالية والرعاية الصحية لمتطلبات صارمة، بما في ذلك تقييمات المخاطر والشفافية والرقابة البشرية.
- المخاطر المحدودة: يجب أن تمتثل أنظمة الذكاء الاصطناعي ذات المخاطر المحدودة، مثل روبوتات الدردشة، لمتطلبات الشفافية الأساسية
- الحد الأدنى من المخاطر: تندرج معظم تطبيقات الذكاء الاصطناعي الموجهة للمستهلكين ضمن هذه الفئة ولا تواجه أي متطلبات محددة.
بالنسبة للشركات، فإن التصنيف عالي المخاطر ينطوي على آثار كبيرة بالنسبة للشركات، حيث يتطلب تدابير امتثال صارمة.
التواريخ الرئيسية
1 August 2024
The AI Act entered into force, marking the beginning of its phased implementation.
2 February 2025
Prohibitions on certain AI systems deemed to pose unacceptable risks became applicable.
2 August 2025
Obligations for providers of General Purpose AI (GPAI) models commence, alongside requirements for Member States to designate national competent authorities and establish rules for penalties and fines.
2 February 2026
Deadline for Commission to provide guidelines specifying the practical implementation of Rules for High-Risk AI Systems, including post-market monitoring plan.
2 August 2026
The majority of the AI Act’s provisions, including those related to high-risk AI systems, come into full effect.
2 August 2027
Obligations on high-risk systems apply to products already required to undergo third-party conformity assessments. This includes products such as toys, radio equipment, in-vitro medical devices, and agricultural vehicles. GPAI systems placed on the market before 2 August 2025 become subject to the Act’s provisions.
31 December 2030
AI systems that are components of the large-scale IT systems listed in Annex X that have been placed on the market or put into service before 2 August 2027 must be brought into compliance with the Act.
ماذا يعني ذلك بالنسبة لمؤسستك؟
1. التحديات التنظيمية والامتثال
يفرض قانون الذكاء الاصطناعي متطلبات امتثال صارمة، لا سيما بالنسبة للتطبيقات عالية المخاطر. يجب على الشركات تطوير أطر حوكمة قوية لمعالجة:
- شفافية البيانات: ضمان تدريب أنظمة الذكاء الاصطناعي على مجموعات بيانات متنوعة وغير متحيزة.
- المساءلة: الاحتفاظ بالوثائق ومسارات التدقيق لصنع قرارات الذكاء الاصطناعي.
- الرقابة البشرية: إنشاء آليات للتدخل البشري عند الضرورة.
يمكن أن يؤدي عدم الامتثال إلى فرض عقوبات كبيرة تصل إلى 35 مليون يورو أو 7% من حجم المبيعات العالمية السنوية، أيهما أعلى. بالنسبة للمؤسسات العالمية، ستكون مواءمة استراتيجيات الذكاء الاصطناعي عبر الولايات القضائية أمرًا بالغ الأهمية لتجاوز هذا المشهد التنظيمي المعقد.
2. الخدمات المالية
تواجه المؤسسات المالية التي تستفيد من الذكاء الاصطناعي لتسجيل الائتمان أو الكشف عن الاحتيال أو تقديم المشورة الاستثمارية تدقيقًا متزايدًا. يتطلب قانون الذكاء الاصطناعي:
- تقييمات شاملة للمخاطر لتحديد التحيزات المحتملة في الخوارزميات.
- التواصل الشفاف لدور الذكاء الاصطناعي في اتخاذ القرارات، خاصةً في التطبيقات الموجهة للعملاء.
- تعزيز تدابير الأمن السيبراني للتخفيف من المخاطر المرتبطة بالأنظمة الآلية.
لكي تظل الشركات قادرة على المنافسة، يجب على الشركات أن توازن بين الابتكار والامتثال التنظيمي، بما يضمن أن تقدم أدوات الذكاء الاصطناعي قيمة دون المساس بالمعايير الأخلاقية.
3. قطاع التكنولوجيا
يجب على صناعة التكنولوجيا، باعتبارها العمود الفقري لتطوير الذكاء الاصطناعي، أن تتكيف مع معايير تصميم ونشر أكثر صرامة. وتشمل الآثار الرئيسية ما يلي:
- زيادة تكاليف تطوير أنظمة الذكاء الاصطناعي عالية المخاطر، حيث يستلزم الامتثال لمتطلبات قانون الذكاء الاصطناعي إجراء اختبارات وتوثيق مكثف.
- زيادة التركيز على إمكانية تفسير نماذج الذكاء الاصطناعي وقابليتها للتفسير، وضمان فهم أصحاب المصلحة لكيفية اتخاذ القرارات.
- التعاون مع الجهات التنظيمية لتحسين المبادئ التوجيهية ومعالجة أوجه الغموض في القانون.
4. الموارد البشرية
تُصنَّف الأدوات التي تعتمد على الذكاء الاصطناعي للتوظيف ومراقبة الموظفين وتقييم الأداء على أنها عالية المخاطر بموجب القانون. تستخدم العديد من الشركات أدوات الفحص من طرف ثالث التي تتضمن تحليل الذكاء الاصطناعي. ومع ذلك، قد تفتقر العديد من المؤسسات عن غير قصد إلى فهم واضح لكيفية عمل هذه الأدوات. ونتيجة لذلك، إذا أثبت أحد الموظفين أنه تعرض لمضايقات أو سوء معاملة نتيجة استخدام أدوات الذكاء الاصطناعي هذه، فإن الشركة – وليس مزود الأدوات – ستتعرض لمقاضاة محتملة. بالإضافة إلى ذلك، فإن أي أدوات ذكاء اصطناعي مستخدمة لمراقبة سلوك الموظفين، حتى تلك التي تبدو حميدة مثل تتبع ضبط الوقت، من المرجح أن تخضع للتدقيق في اللوائح الحالية.
يجب على أصحاب العمل:
- إجراء عمليات تدقيق منتظمة للتأكد من أن أنظمة الذكاء الاصطناعي لا تكرس التمييز.
- تزويد المرشحين والموظفين بمعلومات واضحة حول دور الذكاء الاصطناعي في عمليات اتخاذ القرار.
- تنفيذ عمليات للإشراف البشري لمراجعة القرارات المستندة إلى الذكاء الاصطناعي والطعن فيها.
خطوات الاستعداد لقانون الذكاء الاصطناعي للاتحاد الأوروبي
- إجراء جرد للذكاء الاصطناعي: تحديد جميع أنظمة الذكاء الاصطناعي المستخدمة، وتقييم تصنيفها بموجب قانون الذكاء الاصطناعي.
- تعزيز الحوكمة: إنشاء فرق متعددة الوظائف للإشراف على الامتثال للذكاء الاصطناعي، بما في ذلك أصحاب المصلحة القانونيين والتقنيين والتشغيليين.
- الرقابة على مستوى مجلس الإدارة: ستكون حوكمة الذكاء الاصطناعي قضية على مستوى مجلس الإدارة بسبب ارتفاع مخاطر عدم الامتثال، ومن الضروري وجود رقابة على مستوى مجلس الإدارة.
- الاستعانة بالخبراء: اطلب الإرشاد من مستشاري أخلاقيات الذكاء الاصطناعي والمستشارين القانونيين لتفسير أحكام القانون وتطبيقها بفعالية.
- الاستثمار في التدريب: تثقيف الموظفين بشأن الآثار المترتبة على قانون الذكاء الاصطناعي، وتعزيز ثقافة الاستخدام الأخلاقي للذكاء الاصطناعي.
- رصد التطورات: البقاء على اطلاع على تحديثات القانون واللوائح ذات الصلة لتوقع التغييرات والتكيف معها.
سينشئ الاتحاد الأوروبي قاعدة بيانات للأنظمة عالية المخاطر في بداية أغسطس 2026 تقريبًا – هناك خطوة تحضيرية أخرى فيما يتعلق بقائمة جرد الذكاء الاصطناعي تتمثل في المراجعة والتصنيف المحدد لأي أنظمة عالية المخاطر قيد الاستخدام، والمشاركة مع المورد لفهم كيف يعتزمون الاستجابة لالتزامات القانون.
يجب أيضًا مراجعة المشتريات بشكل عام لأي أدوات تستخدم الذكاء الاصطناعي ووضع معايير قبل التنفيذ الكامل للقانون بوقت كافٍ. يمكن أن يحدد ذلك على سبيل المثال متطلبات تدقيق محددة لأدوات الذكاء الاصطناعي الخاصةبالجهات الخارجية.
يجب أن تكون هناك نقطة أخرى هي أنه على الرغم من أن الاتحاد الأوروبي لديه قانونه الخاص، إلا أنه ستكون هناك قضايا عابرة للحدود حيث أن الولايات القضائية الأخرى تضع متطلباتها التنظيمية الخاصة بها، وبالطبع من غير المحتمل أن يكون هناك مواءمة كاملة. تمثل المراجعة متعددة الاختصاصات القضائية مشكلة.
الخاتمة
يُمثل قانون الذكاء الاصطناعي تحولاً جذرياً في كيفية تنظيم الذكاء الاصطناعي، مع ما يترتب على ذلك من آثار بعيدة المدى على الشركات في مختلف القطاعات. من خلال فهم متطلباته والاستعداد بشكل استباقي، لا يمكن للمؤسسات التخفيف من المخاطر فحسب، بل يمكنها أيضًا أن تكون رائدة في تبني الذكاء الاصطناعي الأخلاقي. مع اقتراب التواريخ الرئيسية، حان وقت العمل الآن.
المصدر: https://artificialintelligenceact.eu/
لمناقشة كيفية حماية مؤسستك من المخاطر المستقبلية، يُرجى الاتصال بأدريان هوغو، المدير الإداري في قسم استشارات التغيير لدينا