- ℃ 11 تركيا
- 25 ديسمبر 2024
تحديات السياسات المنظمة للذكاء الاصطناعي
تحديات السياسات المنظمة للذكاء الاصطناعي
- 20 مايو 2023, 8:23:50 ص
- تم نسخ عنوان المقال إلى الحافظة
أثار الحظر الإيطالي المؤقت لتطبيق شات جي بي تي، الذي استمر لمدة شهر تقريباً منذ نهاية شهر مارس حتى نهاية شهر أبريل 2023، تساؤلات جوهرية حول سياسات الحكومات لتنظيم استخدام تطبيقات الذكاء الاصطناعي في ضوء التحديات التي باتت تفرضها هذه التطبيقات وانعكاساتها الأمنية والمجتمعية والاقتصادية المتعددة. وتنهض السياسات المنظمة لاستخدامات الذكاء الاصطناعي – على الرغم من حداثة عهدها – على جملة من المبادئ تجعل من البشر محوراً رئيسياً لها. وتتطرق تلك السياسات عادةً إلى مختلف القضايا ذات الصلة بالبنية التحتية والوصول إلى البيانات والنظام البيئي للذكاء الاصطناعي والقدرات البشرية جنباً إلى جنب مع مبادئ الأمن والسلامة والمساءلة، بيد أن تلك السياسات على اختلافها تواجه صعوبات جمة على أرض الواقع، في ظل ارتهانها بجملة من المحددات، يأتي في مقدمتها حجم الاستثمار في مجال الذكاء الاصطناعي، ومدى جاهزية الشركات الصغيرة والناشئة، وطبيعة الجهود التنسيقية بين مختلف الوكالات المعنية، وغير ذلك.
سياسات تنظيمية
لا توجد سياسة واحدة تتبعها الدول على صعيد استخدامات الذكاء الاصطناعي وإن دار أبرزها حول النقاط التالية:
1– تبني سياسات صدامية: تلجأ بعض الحكومات إلى خيارات متطرفة في التعامل مع الذكاء الاصطناعي؛ وذلك من خلال سياسات صدامية، وفرض حظر على استخدامات التطبيقات الخاصة به. ولعل النموذج الأبرز على ذلك إيطاليا التي أعلنت في نهاية شهر مارس 2023 عن تقييد الوصول إلى برنامج “شات جي بي تي”؛ بسب مخاوف تتعلق بخصوصية البيانات بعد الحديث عن انتهاك البرنامج قواعد الخصوصية، وجمعه البيانات بصورة غير قانونية، ولكن بعد نحو شهر من ذلك القرار تم إيقافه، وذكرت هيئة حماية البيانات الإيطالية، في بيان، إن شركة “أوبن إيه آي” أعادت تشغيل خدمتها في إيطاليا بتحسين الشفافية وحقوق المستخدمين الأوروبيين، وأضافت الهيئة أن “أوبن إيه آي” تمتثل الآن لعدد من الشروط التي طالبت بها الهيئة من أجل رفع الحظر الذي فرضته عليها في أواخر مارس 2023.
بالرغم من رفع قرار الحظر، فإن ما قامت به الحكومة الإيطالية كشف عن أحد المسارات التي يمكن أن تسلكها الحكومات في التعامل مع الذكاء الاصطناعي. ويكفي هنا الإشارة إلى أن قرار الحكومة الإيطالية حظر تطبيق “شات جي بي تي” أفضى إلى تصاعد بعض الأصوات المطالبة بفرض قيود على استخدامات الذكاء الاصطناعي؛ فعلى سبيل المثال، دعت منظمة المستهلك الأوروبية، في شهر مارس الماضي، وعقب قرار الحكومة الإيطالية حظر تطبيق “شات جي بي تي”، جميع السلطات للتحقيق في جميع روبوتات الدردشة الرئيسية للذكاء الاصطناعي. وذكرت “أورسولا باشل” نائبة مدير منظمة المستهلك الأوروبية أن “المستهلكين ليسوا مستعدين لهذه التكنولوجيا؛ إنهم لا يدركون مدى الخداع الذي قد يكون مضللاً”، وأضافت: “إنهم لا يدركون أن المعلومات التي يحصلون عليها قد تكون خاطئة. أعتقد أن هذه الحادثة مع شات جي بي تي مهمة للغاية. إنها نوع من نداء إيقاظ الاتحاد الأوروبي؛ لأنه على الرغم من أن المؤسسات الأوروبية كانت تعمل على قانون الذكاء الاصطناعي، فإنها لن تكون قابلة للتطبيق لمدة أربع سنوات أخرى، وقد رأينا مدى السرعة التي تتطور بها هذه الأنواع من الأنظمة”.
2– مراعاة الاعتبارات القيمية: تسعى دول عدة إلى تغليف الذكاء الاصطناعي بالاعتبارات والقيم الأخلاقية التي تدور في الأساس حول الإنصاف واحترام سيادة القانون وحقوق الإنسان والقيم الديمقراطية والتنوع. وفي هذا الإطار، نصَّت سياسات واستراتيجيات بعض الدول على أهمية بل حتمية تصميم أنظمة الذكاء الاصطناعي، بما يحقق غايةً مفادها المجتمع العادل والمنصف والشفاف، وهو ما يعني ضمناً تمتُّع تلك الأنظمة بالشفافية التي تضمن تلبية متطلبات المتانة والأمن والسلامة من ناحية، كما تضمن الحد من التداعيات السلبية الناجمة عن استخدامها من ناحية ثانية، وتتأكد من أن تلك الأنظمة تعمل بطريقة قوية وآمنة طوال دورات حياتها بهدف تقييم المخاطر المحتملة وإدارتها باستمرار من ناحية ثالثة، وتُحتِّم على المنظمات والأفراد الذين يطورونها، أن يتحملوا المسؤولية عن تلبية مختلف تلك الاعتبارات من ناحية رابعة.
والجدير بالذكر في هذا الإطار أنه في أكتوبر 2018، أقر أكثر من 250 خبيراً و 60 منظمة (تمثل أكثر من 40 دولة) المبادئ التوجيهية العالمية للذكاء الاصطناعي (UGAI)، وهي المبادئ التي تشمل الحق في الشفافية؛ بمعنى حق جميع الأفراد في معرفة أساس قرار الذكاء الاصطناعي، وتحديد الهوية؛ بمعنى معرفة الجمهور الدولة أو المؤسسة التي أنتجت نظاماً بعينه من أنظمة الذكاء الاصطناعي، والالتزام بالعدالة؛ بمعنى خلو أنظمة الذكاء الاصطناعي من التحيزات غير العادلة أو القرارات التمييزية، وحتمية التقييم والمساءلة؛ بمعنى نشر نظام الذكاء الاصطناعي عقب إجراء تقييم مناسب لغاياته وأهدافه وفوائده ومخاطره، مع تحمل الدول والمؤسسات المسؤولية عن القرارات التي يتخذها، والالتزام بجودة البيانات والسلامة العامة.
3– تضمين الأمن السيبراني: تربط كثير من الدول بين الذكاء الاصطناعي والأمن السيبراني، حتى بات الأخير ركناً ركيناً في سياسات الأول؛ إذ يمكن أن تساعد أنظمة الذكاء الاصطناعي في التعرف على الهجمات السيبرانية وغير ذلك من تهديدات. ومن ثم، أصبحت تكنولوجيا المعلومات والاتصالات هي الصناعة الأسرع والأكثر تقدماً في تبني الذكاء الاصطناعي واستخدام خوارزمياته، والتعلم الآلي لأتمتة المهام ومعالجة البيانات واتخاذ القرارات ومكافحة التهديدات الأمنية والحماية من الهجمات السيبرانية، بل محاربة المعلومات المضللة واكتشاف الأخبار المزيفة.
ونتيجة لذلك، استثمرت الدول والشركات المتخصصة في مجال تكنولوجيا المعلومات، في مجال الذكاء الاصطناعي لحماية أمنها السيبراني بالاعتماد على إدارة مخاطر التكنولوجيا التشغيلية، وقياس حركة المرور غير المنتظمة، والوقوف على الأنشطة السيبرانية الضارة، كما يمكن استخدام تقنيات الذكاء الاصطناعي (مثل: التعلم الآلي، ومعالجة اللغة الطبيعية، والتعلم العميق، وغير ذلك) لمساعدة فرق الأمن على أتمتة المهام المتكررة، وتسريع اكتشاف التهديدات والاستجابة لها، فضلاً عن تحسين دقة إجراءاتهم.
وقد اتجهت مختلف الدول إلى دمج الذكاء الاصطناعي في أنظمة الأمن السيبراني من خلال الكشف الآلي عن التهديدات، والاستجابة للحوادث، وتحليل مجموعات البيانات الكبيرة بسرعة وفاعلية أكبر، وتحديد الحالات الشاذة التي تحدث في أنظمة الكمبيوتر تلقائياً، واكتشاف التهديدات والهجمات المعقدة التي قد لا تكتشفها تدابير الأمن التقليدية، كما يمكن استخدام التعلم الآلي لتطوير أنظمة الكشف عن الأخطاء التي يمكنها تحديد سلوكيات المستخدم غير العادية وهجمات البرامج الضارة أو برامج الفدية التي قد تشير إلى وجود مخاطر أمنية.
وبمجرد اكتشاف نشاط مشبوه، يمكن للنظام بعد ذلك اتخاذ الإجراءات المناسبة، مثل حظر حركة المرور الضارة، أو إخطار فِرق أمن المعلومات؛ فمن خلال الأنظمة التي تعمل بالذكاء الاصطناعي، والتي تعمل على أتمتة اكتشاف التهديدات والاستجابة لها، يمكن للدول تحرير محلليها الأمنيين من المهام المتكررة التي تستغرق وقتاً طويلاً، وإعادة تحديد أولوياتهم للقيام بمهام أخرى ذات قيمة مضافة.
4– التركيز على جانب العرض: تميل الدول عادةً إلى التركيز على آليات وسبل تطوير الذكاء الاصطناعي في جانب العرض لا في جانب الطلب. ونتيجةً لذلك، يزداد أعداد الباحثين في هذا المجال في الغالبية العظمى من الدول الرائدة في مجال الذكاء الاصطناعي، بجانب الخريجين المهرة، مع إيلاء سبل تعزيز التنافسية الوطنية اهتماماً متزايداً، كما يتصل بذلك حجم الاهتمام الذي تحظى به الشركات الصغيرة والمتوسطة والناشئة ورجال الأعمال والمؤسسات البحثية من ناحية، بل موقعها في سياسات ومبادرات الذكاء الاصطناعي الوطنية من ناحية ثانية.
والجدير بالذكر في هذا الإطار أن معظم الاستراتيجيات الوطنية للذكاء الاصطناعي تعطي الأولوية لمعالجة القضايا التي تواجهها الشركات الصغيرة والمتوسطة، لا سيما قضايا التمويل والتسويق، في إطار معالجة التحديات التي تجابه منتجي التكنولوجيا وأنظمة الذكاء الاصطناعي.
5– تضمين الذكاء الاصطناعي في الأنشطة الإنتاجية: تهدف الغالبية العظمى من السياسات الوطنية المنظمة للذكاء الاصطناعي إلى الاستفادة القصوى منه في مختلف المجالات والمستويات؛ ما يعكس التعقيد المتزايد والمتشابك لاستخداماته؛ ما يزيد أهمية تفعيل الجهود التنسيقية بين مختلف القطاعات الرئيسية في الدولة. وعادةً ما يُنظَر إلى الصناعة التحويلية على أنها واحدة من أبرز القطاعات التي يمكن تعظيم استفادتها من حلول الذكاء الاصطناعي والأتمتة والقدرة التنبؤية المحسنة، ومن الأمثلة البارزة على ذلك صناعة السيارات الذاتية القيادة، التي تلتقط مستشعراتها آلاف البيانات بسرعة فائقة (مثل سرعة السيارة، وحركة المرور، وأماكن المشاة، وغير ذلك)؛ إذ يلعب الذكاء الاصطناعي دوراً بارزاً في تفسير البيانات وجمعها؛ لمعرفة أفضل تدابير السلامة وتقنيات القيادة الفاعلة والطرق الأكثر فاعليةً دون تدخل بشري، ناهيك عن صناعة السفر؛ فقد أثرت روبوتات الدردشة التي تعمل بالذكاء الاصطناعي في صناعة السفر عالمياً بعد أن سهَّلت التفاعل مع العملاء، وقلَّلت أوقات الاستجابة، وأتاحت مزيداً من المعلومات.
6– تعظيم استفادة الحكومات: تحدد سياسات الذكاء الاصطناعي لكل دولة على حدة جملة من النقاط البارزة التي تشمل عادةً التوجه الحكومي في مجال الذكاء الاصطناعي، ومتطلبات التنفيذ من جميع النواحي، لا سيما القانونية والمؤسسية، مع تحديد الأولويات والأهداف وغير ذلك. ومن الأمثلة البارزة على ذلك السياسة الأردنية للذكاء الاصطناعي الصادرة في عام 2020، التي تدور حول جملة من الأهداف التي يأتي في مقدمتها بناء منظومة راسخة للبحث العلمي والتطوير والتطبيق التجريبي في مجال الذكاء الاصطناعي، وإيجاد البيئة المناسبة له، وتطوير البنية التحتية لمواكبة احتياجاته، بجانب تعزيز استخداماته في القطاعات الاقتصادية الحيوية، بما في ذلك الصحة والتعليم والخدمات المالية والطاقة والتكنولوجيا النظيفة والأمن والاتصالات والنقل، مع بناء القدرات والخبرات والمهارات المتخصصة في الذكاء الاصطناعي، وتوظيف المعرفة في تطوير القطاعات كافة، وتحديث مناهج التعليم العالي والتعليم التقني، بجانب تعزيز دور القطاع العام في استخدام وتبني الذكاء الاصطناعي وتطبيقاته، وبناء الشراكات اللازمة مع القطاع الخاص لتعزيز المسارات الإنتاجية نحو التنمية المستدامة.
7– استحداث مؤسسات للإشراف: تتعدد المؤسسات التي تستحدثها الدول خصيصاً للإشراف على سياساتها واستراتيجياتها ذات الصلة بالذكاء الاصطناعي؛ فعلى سبيل المثال، أنشأت الولايات المتحدة مجلس ابتكار الدفاع للنظر في كيفية تطبيق الذكاء الاصطناعي في سياقات معينة؛ لذا يتزايد تأثيره في عملية صنع السياسات ذات الصلة.
وبالإضافة إلى ذلك، تتعدد الهيئات المعنية بالذكاء الاصطناعي داخل مختلف المؤسسات الحكومية الأمريكية التي تعني في الأساس وضع خطط لتنظيم استخداماته، ووضع المبادئ للإشراف على تطبيقاته، وتقييم المخاطر وإدارتها، والتنسيق بين مختلف الوكالات المعنية. وفي هذا الإطار، أنشأ مجلس مدينة نيويورك في عام 2017، على سبيل المثال، فريق عمل لدراسة كيفية استخدامه للذكاء الاصطناعي، وتقديم توصيات بشأن تنظيم استخداماته، كما أنشأت الهيئة التشريعية في فيرمونت في عام 2019 فريقاً متخصصاً في الذكاء الاصطناعي لاستكشاف مجالات النمو المسؤول لأسواق التكنولوجيا في الولاية، واستخدام الذكاء الاصطناعي من قبل حكومتهم.
تحديات بارزة
تواجه السياسات المنظمة لاستخدامات الذكاء الاصطناعي جملة من التحديات يمكن الوقوف على أبرزها من خلال النقاط التالية:
1– الحاجة إلى تمويل ضخم: يعد تمويل عمليات تنظيم استخدام مجال الذكاء الاصطناعي عقبة تقليدية تُقوِّض جهود مختلف الدول للتوسُّع في استخدامه، وهو الأمر الذي يتفاقم سوءاً في حالة الشركات الصغيرة والمتوسطة، لا سيما مع تأثر ذلك التمويل باضطراب الأسواق العالمية. ويُذكَر في هذا الصدد أن الاستثمار العالمي في مشروعات الذكاء الاصطناعي انخفض بنسبة 34% إلى 45.8 مليار دولار في عام 2022؛ حيث كانت هناك 2956 معاملة استثمار في صناعة الذكاء الاصطناعي العالمية، وهو أقل بنسبة 10% مما كان عليه في عام 2021.
وعموماً، يتطلب الاستثمار في مجال الذكاء الاصطناعي تخصيص مليارات الدولار، ومن ذلك، على سبيل المثال، تخصيص المملكة العربية السعودية أكثر من 20 مليار دولار لتأسيس نحو 400 شركة ناشئة في مجال الذكاء الاصطناعي بحلول 2030.
2– ارتفاع تكلفة التقنيات المكملة: لا شك في ارتفاع تكلفة استخدام بعض التقنيات البارزة، مثل إنترنت الأشياء أو النطاق العريض العالي السرعة أو المستشعرات أو تخزين الحوسبة، وما إلى ذلك؛ إذ تُضاف هذه الاستثمارات التكميلية إلى التكاليف الباهظة الثمن التي سيتعين على الشركات الصغيرة والمتوسطة تحملها لتدريب نماذج الذكاء الاصطناعي. والجدير بالذكر أنه وفقاً لتقرير OpenAI الأخير، سترتفع تكلفة تدريب نماذج الذكاء الاصطناعي الكبيرة من 100 مليون دولار إلى 500 مليون دولار بحلول عام 2030، وهو ما يُعزَى في الأساس إلى تزايد الحاجة إلى البيانات، التي تؤدي إلى زيادة تكلفة نماذج التعلم الآلي.
3– ضعف القدرة على مجابهة التداعيات السلبية: مع تعدد السياسات الوطنية التي تهدف إلى تعظيم الاستفادة من الذكاء الاصطناعي وتقليل تداعياته السلبية، فإن تلك السياسات تعجز، في كثير من الحالات، عن مجابهة آثاره السلبية، لتظل كثير من الإشكاليات ذات الصلة مطروحة وبقوة دون حلول جذرية، فيظل قرار الذكاء الاصطناعي النهائي رهناً بحجم وجودة البيانات التي يمتلكها من ناحية، وخلو تلك البيانات من التحيزات السياسية من ناحية ثانية، كما يمكن برمجة الذكاء الاصطناعي لتجاهل التاريخ والثقافة، وقد يعجز عن التمييز بين الحقائق والآراء، كما يمكن استخدامه لشن هجمات سيبرانية متقدمة دون أن يتمكن من التصدي للتغييرات العشوائية في التعليمات البرمجية القابلة للتنفيذ أو التكيف مع أنظمة التشغيل كي تتجنب الفيروسات اكتشافها.
4– الصراع بين آلية التنظيم والحرية الإلكترونية : يستدعي الاتجاه المتصاعد لتنظيم استخدامات تطبيقات الذكاء الاصطناعي، حالة من الجدل والصراع مع قيمة الحرية الإلكترونية، التي يرى البعض – وخصوصاً في الدول الغربية – أنها حق من حقوق الإنسان، ومن ثم قد تُواجَه السياسات التنظيمية لاستخدام الذكاء الاصطناعي بمُعارضة من قبل بعض القطاعات داخل المجتمعات الغربية. وربما تدفع هذه القطاعات بأن فكرة الحظر والتقييد، التي تسعى بعض الحكومات إلى تطبيقها، قد تكون غير مناسبة في ظل التحولات العالمية والتكنولوجية الراهنة.
5– حداثة عهد سياسات الذكاء الاصطناعي: لا يزال تطوير تقنيات الذكاء الاصطناعي ونشرها واستخدامها في مرحلة مبكرة نسبياً بالنظر إلى عدد من الدول والشركات؛ لذا دفعت بعض التحليلات بأن عملية صناعة سياسات الذكاء الاصطناعي، لا تعدو كونها عملية تجريبية؛ ولذا تتزايد أهمية تبادل خبرات الدول لتسهيل عمليات التعلم، بجانب تفعيل عمليات تقييم ومراجعة السياسات لتعظيم مدى ملاءمتها والنظر في قدرتها على تنفيذ مبادئ الذكاء الاصطناعي، بجانب التقيد بالاعتبارات الأخلاقية الحاكمة له.
ختاماً، بات الذكاء الاصطناعي هو مفتاح تكنولوجيا المستقبل؛ ولذا تعددت السياسات الوطنية التي انتهجتها الدول والاستراتيجيات التي استحدثتها لتنظيم استخداماته. وقد دارت تلك الاستخدامات حول تعظيم الاستفادة منه لزيادة الإنتاجية، مع التقيد بجملة من الضوابط الأخلاقية المنظمة له، ودفع الشركات الناشئة والمتوسطة لتكثيف استثماراتها فيه، بالتوازي مع إيجاد الأبنية المؤسسية اللازمة لتنظيم استخداماته. ويمكن الدفع بأن هذه السياسات – على تعددها وما يتفرع عنها من أهداف – لا تزال سياسات وليدة تعجز عن مجابهة تداعياته السلبية.