
لوائح الذكاء الاصطناعي قادمة: هل ستحمي عملك؟
لقد كان الكثير منا حذرين عندما يتعلق الأمر بالذكاء الاصطناعي، حيث إن خصوصية البيانات وانتهاك حقوق الطبع والنشر وعدم الدقة كلها أمور تثير القلق. ومع ذلك، يمكن للذكاء الاصطناعي أيضًا أن يساعد شركتك على تقليل التكاليف وتحسين الكفاءة وزيادة رضا العملاء. فكيف يمكنك جني هذه الفوائد مع الحفاظ على سلامتك وأمانك؟
على الرغم من أن القوانين الحالية لحماية المستهلك وحقوق الإنسان والقانون الجنائي تنطبق على الذكاء الاصطناعي، إلا أنها لم يتم تطويرها مع أخذ ذلك في الاعتبار. ونتيجة لذلك، فإنهم عمومًا يفتقرون إلى النطاق ومستوى التفاصيل لتنظيم هذه التكنولوجيا المعقدة ومتعددة الطبقات بشكل فعال.
وهذا على وشك التغيير. لقد اتخذت الحكومات في جميع أنحاء العالم بالفعل خطوات للتحكم في الذكاء الاصطناعي. اللوائح التنظيمية التي يمكن أن تؤثر على عملك قادمة، وقد يكون ذلك في وقت أقرب مما تعتقد.
هل ستحمي لوائح الذكاء الاصطناعي القادمة أعمالك؟
في حين أن العديد من قوانين الذكاء الاصطناعي المقترحة لا تزال في شكل مسودة، فلا يزال بإمكاننا استخلاص الإشارات من أنواع القضايا التي ينظر فيها المنظمون. خصوصية البيانات والتمييز وانتهاك حقوق الطبع والنشر ليست سوى عدد قليل من اهتماماتهم.
يجب على الشركات التي تستخدم الأدوات التي تعمل بالذكاء الاصطناعي أن تستمر في إدارة المخاطر باستخدام أفضل الممارسات التالية:
- لا تشارك البيانات الشخصية أو بيانات الملكية ما لم يتم ضمان الخصوصية.
- اطلب من شخص مطلع التحقق من دقة مخرجات الذكاء الاصطناعي.
- تجنب نشر المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي حرفيًا في حالة أنه محمي بحقوق الطبع والنشر.
- تأكد من أن موظفيك على علم بهذه القواعد
وقد بدأت كندا والصين وأوروبا والولايات المتحدة بالفعل في الإشارة إلى عزمها على التنظيم وبدأت بعض الاتجاهات في الظهور. نعتقد أنه من المتوقع من المنظمات التي تعمل على تطوير الذكاء الاصطناعي أن تقوم بما يلي:
اشرح كيفية عمل النماذج (مثل المنطق والمعايير وما إلى ذلك)
وصف كيفية استخدام النماذج للبيانات (على سبيل المثال، نوعها، ومن أين تأتي، والاستخدام، والتخزين، وما إلى ذلك)
توضيح الخيارات التي يقدمونها لمستخدمي الذكاء الاصطناعي (على سبيل المثال، الاشتراك، إلغاء الاشتراك، محو البيانات، وما إلى ذلك)
وضح بوضوح متى يتم استخدام الذكاء الاصطناعي (على سبيل المثال، أنت تتفاعل مع الروبوت)
إظهار عدم التحيز في القرارات الآلية ومعالجة جميع المشكلات بعدالة، بالإضافة إلى دليل على الضمانات الداخلية لتقليل التحيز
تهدف هذه اللوائح إلى حماية أولئك الذين يستخدمون المنتجات ذات قدرات الذكاء الاصطناعي.
تمر البلدان في جميع أنحاء العالم بمراحل مختلفة في وضع اللوائح التنظيمية معًا. وقد اقترحت بعض البلدان، بما في ذلك كندا، بالفعل تشريعات أو هي في طور الانتهاء منها. وقد قامت دول أخرى، مثل الولايات المتحدة، بصياغة بعض المبادئ العامة للشركات التي تعمل على تطوير تطبيقات الذكاء الاصطناعي، إلا أنها غير ملزمة، مما يعني أنه لا توجد عواقب لعدم الالتزام بها. وبعض الدول ليس لديها تشريعات أو مبادئ على الإطلاق.
لوائح الذكاء الاصطناعي في كندا
في عام 2022، قدمت كندا مشروع القانون C-27، قانون تنفيذ الميثاق الرقمي – وهو إطار عمل يهدف إلى ضمان الثقة والخصوصية والابتكار المسؤول في المجال الرقمي. وكجزء من مشروع القانون C-27، قدمت كندا أيضًا قانون الذكاء الاصطناعي والبيانات (AIDA)، الذي يسعى إلى حماية الأفراد ومصالحهم من الجوانب الضارة المحتملة لأنظمة الذكاء الاصطناعي.
الرقابة البشرية والمراقبة
الشفافية
العدالة والإنصاف
أمان
مسئولية
الصلاحية والمتانة
وفقًا لهيئة الابتكار والعلوم والتنمية الاقتصادية الكندية (ISED)، من المتوقع من الشركات التي لديها منتجات تعمل بالذكاء الاصطناعي أن تنفذ آليات المساءلة، مثل عمليات وسياسات الإدارة الداخلية، لضمان وفائها بالتزاماتها بموجب القانون. وإذا سارت الأمور على المسار الصحيح، فمن المفترض أن يدخل قانون AIDA حيز التنفيذ في موعد لا يتجاوز عام 2025.
بالإضافة إلى ذلك، يشير حكم المحكمة الأخير إلى أن الشركات ستحتاج إلى اتخاذ تدابير لضمان دقة أدواتها التي تعمل بالذكاء الاصطناعي. في قضية تاريخية، وجد القاضي أن شركة كندية كبيرة مسؤولة قانونيًا عن المعلومات الخاطئة التي قدمها برنامج الدردشة عبر الإنترنت الخاص بها إلى أحد عملائها.
على المستوى الفيدرالي، قدمت إدارة بايدن مخططًا لوثيقة حقوق الذكاء الاصطناعي في أكتوبر 2022. وتحدد هذه الوثيقة مجموعة من خمسة مبادئ وممارسات للمساعدة في توجيه الشركات التي تقوم بتطوير ونشر وإدارة الأنظمة الآلية وتقنيات الذكاء الاصطناعي.
وتشمل المبادئ الخمسة ما يلي:
أنظمة آمنة وفعالة
الحماية من التمييز الخوارزمي
خصوصية البيانات
إشعار وشرح (للتأكد من معرفة المستخدمين عندما يتفاعلون مع الذكاء الاصطناعي)
البدائل البشرية والأخذ في الاعتبار والرجوع (لضمان إمكانية إلغاء الاشتراك بسهولة أو الوصول إلى شخص ما للحصول على المساعدة)
وفي الوقت نفسه، سنت عدة ولايات قوانين الخصوصية المتعلقة بالذكاء الاصطناعي. على سبيل المثال، تطلب معظم الولايات من الشركات الكشف عن وقت استخدام الذكاء الاصطناعي في اتخاذ القرارات الآلية وتوفير طرق للمستهلكين لإلغاء الاشتراك في هذا النوع من معالجة البيانات. ولدى الولايات الأخرى متطلبات شفافية إضافية لضمان كشف الشركات عن كيفية عمل أنظمتها.
خطوات أخرى نحو تنظيم الذكاء الاصطناعي في الولايات المتحدة
في 5 يوليو 2023، سنت مدينة نيويورك قانون التحيز للذكاء الاصطناعي، والذي يتطلب من الشركات مراجعة خوارزميات التوظيف الخاصة بها بانتظام للتأكد من عدم وجود تحيز ونشر النتائج التي تتوصل إليها.
في أغسطس 2023، حكم قاض أمريكي بعدم إمكانية حماية حقوق الطبع والنشر للأعمال الفنية التي تم إنشاؤها بواسطة الذكاء الاصطناعي. وفقًا لمكتب حقوق الطبع والنشر الأمريكي، يشمل ذلك أي عمل فني يتم إنشاؤه تلقائيًا بواسطة آلة أو عملية ميكانيكية دون مساهمة إبداعية من مؤلف بشري.
أصبحت لجنة التجارة الفيدرالية (FTC) أيضًا أكثر نشاطًا في مراقبة المنتجات التي تعمل بالذكاء الاصطناعي والتحقيق فيها. على سبيل المثال، يقومون حاليًا بالتحقيق في Open AI لتحديد ما إذا كانت الشركة تبلغ المستخدمين بشكل كافٍ عندما تولد التكنولوجيا الخاصة بهم معلومات كاذبة.
أصدر الاتحاد الأوروبي (E.U) اتفاقية مؤقتة تسمى قانون الذكاء الاصطناعي (AI Act) في عام 2023.
يصنف قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي الذكاء الاصطناعي إلى أربعة مستويات من المخاطر:
خطر غير مقبول
هذه التقنيات محظورة مع استثناءات قليلة جدًا ويمكن أن تتضمن إمكانات مثل:
التلاعب السلوكي المعرفي
التهديف الاجتماعي الحكومي
تحديد الهوية البيومترية في الوقت الحقيقي، مثل التعرف على الوجه
مخاطرة عالية
يجب أن تستوفي التقنيات الموجودة في هذه الفئة قائمة طويلة من المتطلبات لضمان السلامة. بالإضافة إلى ذلك، يجب على الشركات مشاركة التفاصيل حول نظامها في قاعدة بيانات يمكن الوصول إليها بشكل عام. يمكن أن تشمل التقنيات في هذه الفئة ما يلي:
المركبات ذاتية القيادة
طائرات بدون طيار
أجهزة طبية
مخاطر محدودة
تحتاج أنظمة الذكاء الاصطناعي هذه إلى تلبية الحد الأدنى من متطلبات الشفافية. وتشمل تقنيات مثل:
روبوتات الدردشة
الذكاء الاصطناعي التوليدي
الحد الأدنى من المخاطر
لقد تم بالفعل نشر معظم الذكاء الاصطناعي في هذا المستوى ويتم استخدامه اليوم، ولكن قد يتم تعيين مسؤوليات معينة للمبدعين والموزعين والمستخدمين لضمان الشفافية. تتضمن أمثلة الذكاء الاصطناعي في هذه الفئة ما يلي:
مرشحات البريد الإلكتروني العشوائي
ألعاب الفيديو
توصيات الأفلام الشخصية
مساعدين صوتيين
وكما هو الحال مع الولايات المتحدة، تعمل دول أوروبية مختلفة أيضًا على وضع لوائح خاصة بها بشأن الذكاء الاصطناعي. على سبيل المثال، في أكتوبر 2023، اقترحت إسبانيا تنظيم عمليات المحاكاة التي يولدها الذكاء الاصطناعي لصور الأشخاص وأصواتهم.
تتمتع الصين بسجل حافل في التفاعل مع التكنولوجيا الجديدة بسرعة. بعد بضعة أشهر فقط من إطلاق ChatGPT، كانت من أوائل الدول التي قدمت تشريعات بشأن الذكاء الاصطناعي التوليدي. ويبدو أيضًا أن هناك إطارًا قانونيًا أكثر شمولاً قيد الإعداد.
وفي يونيو/حزيران 2023، أصدرت الصين قائمة بالتشريعات المخططة والتي تضمنت “قانون الذكاء الاصطناعي”. وإلى أن يتم إقراره، زودت الحكومة الصينية شركات الذكاء الاصطناعي بقائمة من المجالات التي ينبغي عليها تجنبها. وتهدف الصين إلى أن تصبح رائدة عالمية في هذا المجال بحلول عام 2030، ومن المتوقع أن تعالج القضايا القانونية على أساس كل حالة على حدة لتحفيز ابتكار الذكاء الاصطناعي وإبقائه تحت سيطرة الدولة.
ما هي المخاطر التي تؤثر على لوائح الذكاء الاصطناعي؟
هذه هي بعض المخاوف الرئيسية التي تحاول الحكومات معالجتها من خلال هذه اللوائح القادمة.
1. الذكاء الاصطناعي لحماية الخصوصية والبيانات
يثير جمع البيانات الشخصية وتخزينها واستخدامها بواسطة أنظمة الذكاء الاصطناعي مخاوف كبيرة تتعلق بالخصوصية. يجب أن تضمن القوانين الجديدة أن تطبيقات الذكاء الاصطناعي تحترم حقوق الخصوصية وإرشادات حماية البيانات.
2. التحيز والإنصاف في الذكاء الاصطناعي
يعتمد الذكاء الاصطناعي التوليدي على مجموعة متنوعة من البيانات، يأتي جزء كبير منها من الإنترنت. بعض المعلومات الواردة من المصادر عبر الإنترنت متحيزة وغير عادلة، مما قد يدفع الذكاء الاصطناعي إلى إنتاج مخرجات تمييزية وكاذبة. وستكون المبادئ التوجيهية الأخلاقية ومتطلبات الاختبار الصارمة حاسمة في معالجة هذه المشكلة.
3. سلامة وأمن الذكاء الاصطناعي
من السيارات ذاتية القيادة والطائرات بدون طيار إلى التزييف العميق والروبوتات، يمكن أن يشكل الذكاء الاصطناعي مجموعة متنوعة من المخاطر على السلامة. يريد صناع السياسات وضع قواعد لمنع الحوادث وتهديدات الأمن السيبراني.
4. حقوق الإنسان والرفاهية
مع تطور قدرات الذكاء الاصطناعي، كيف يمكننا التأكد من أنها تفعل ذلك بطريقة تفيد مجتمعنا؟ قد يرغب المنظمون في الحد من تأثيرها الاقتصادي والبيئي والاستخدام غير الأخلاقي والتقدم غير المنضبط.
من المهم أن تتذكر أن الذكاء الاصطناعي يتطور بسرعة كبيرة ويتغير باستمرار. وهذا يخلق حالة من عدم اليقين في العديد من المجالات، مما يجعل من الصعب التنبؤ بفعالية لوائح الذكاء الاصطناعي. يجب على الشركات التي تتطلع إلى جني الفوائد العديدة التي يمكن أن يقدمها الذكاء الاصطناعي أن تستمر في تطبيق أفضل الممارسات المتعلقة بالسلامة والأمن.