مسؤولة أممية: مخاطر الذكاء الاصطناعي التي تهدّد الخصوصية تتطلّب اعتماد إجراءات عاجلة

مسؤولة أممية: مخاطر الذكاء الاصطناعي التي تهدّد الخصوصية تتطلّب اعتماد إجراءات عاجلة

( أردو بوینت نتورك‎‎‎ ۔ / سبوتنيك - 15 سبتمبر 2021ء) شدّدت مفوضة الأمم المتحدة السامية لحقوق الإنسان، ميشيل باشيليت، اليوم الأربعاء، على الضرورة الملحة لوقف بيع واستخدام أنظمة الذكاء الاصطناعي التي تشكل خطرًا جسيمًا يهدّد حقوق الإنسان، إلى أن يتم اعتماد الضمانات الملائمة. كما دعت إلى حظر تطبيقات الذكاء الاصطناعي التي لا يمكن استخدامها بما يتماشى والقانون الدولي لحقوق الإنسان​​​.

وفي بيان وصلت وكالة "سبوتنيك" نسخة منه قالت باشيليت: "قد يشكّل الذكاء الاصطناعي قوة لنشر الخير، فيساعد المجتمعات على التغلب على بعض التحديات البارزة في عصرنا. ولكن، قد تحمل تكنولوجيا الذكاء الاصطناعي آثارًا سلبية، لا بل كارثية، إذا ما تم استخدامها من دون إيلاء اعتبار كافٍ لكيفية تأثيرها على حقوق الإنسان".

(تستمر)

وتابعت المفوّضة السامية قائلة: "يطال الذكاء الاصطناعي حاليًا كلّ ركن من أركان حياتنا الجسدية والعقلية، وحياتنا العاطفية حتّى؛ وتُستَخدَم أنظمة الذكاء الاصطناعي لتحديد من يحصل على الخدمات العامة، ومن يتمتّع بفرصة الحصول على وظيفة، كما تؤثّر بالطبع على نوع المعلومات التي يراها الناس ويمكنهم مشاركتها عبر الإنترنت".

وبينت باشيليت، أن "يبقى سد الفجوة الهائلة البارزة على مستوى المساءلة عن كيفية جمع البيانات وتخزينها ومشاركتها واستخدامها، من أكثر قضايا حقوق الإنسان إلحاحًا، نظرًا إلى النمو السريع والمستمر للذكاء الاصطناعي".

وأضافت المسؤولة الأممية أن " خطر التمييز المرتبط بالقرارات التي يديرها الذكاء الاصطناعي، وهي قرارات قد تغير أو تحدد أو تلحق الضرر بحياة البشر، هو خطر حقيقي بكل ما للكلمة من معنى." لذا من الضروري للغاية أن نجري تقييمًا منهجيًا لتأثير أنظمة الذكاء الاصطناعي وأن نرصدها، من أجل تحديد المخاطر التي تهدّد حقوق الإنسان ومن أجل التخفيف من حدتها".

وشدّدت على أن "لا يمكننا أن نستمرّ في مُجاراة الذكاء الاصطناعي وفي مواكبة وتيرته الفائقة السريعة، وأن نسمح باستخدامه ضمن حدود معيّنة أو رقابة محدودة أو بدون أي حدود أو رقابة"، مردفة " ومن ثمّ أن نتعامل مع العواقب الحتمية لذلك على حقوق الإنسان بعد وقوعها. لا يمكننا أن ننكر قدرة الذكاء الاصطناعي على خدمة الناس، ولكن لا يمكننا أن ننكر أيضًا قدرة الذكاء الاصطناعي على تغذية انتهاكات حقوق الإنسان على نطاق هائل بدون أي سيطرة على ذلك؛ لا بدّ لنا من أن نتّخذ الإجراءات اللازمة فورًا من أجل حماية حقوق الإنسان في سياق استخدام الذكاء الاصطناعي، خدمة لصا

وقد نشرت مفوضيّة الأمم المتّحدة السامية لحقوق الإنسان اليوم، ضمن إطار عملها في مجال التكنولوجيا وحقوق الإنسان، تقريرًا يحلل كيفية تأثير الذكاء الاصطناعي، بما في ذلك التصنيف وأتمتة عمليّة اتخاذ القرارات وغيرها من تكنولوجيات التعلم الآلي الأخرى، على حق الأشخاص في الخصوصية والحقوق الأخرى، بما في ذلك الحقوق في الصحة والتعليم وحرية التنقل وحرية التجمع السلمي وتكوين الجمعيات وحرية التعبير.

وينظر التقرير في الوتيرة السريعة التي غالبًا ما اعتمدتها الدول والشركات على حد سواء، من أجل دمج تطبيقات الذكاء الاصطناعي، ففشلت في بذل العناية الواجبة. وقد برز العديد من الحالات حيث عومل الأشخاص معاملةً غير عادلة بسبب الذكاء الاصطناعي، مثل حرمانهم من تعويضات الضمان الاجتماعي بسبب أدوات الذكاء الاصطناعي المعيبة أو القبض عليهم بسبب خلل في أنظمة التعرف على الوجه.

ويوضح التقرير بالتفصيل كيف تعتمد أنظمة الذكاء الاصطناعي على مجموعات كبيرة من البيانات، تتضمّن معلومات حول الأفراد يتم جمعها ومشاركتها ودمجها وتحليلها بطرق متنوّعة ومبهمة في أغلب الأحيان.

وقد تكون البيانات المستخدمة لإثراء أنظمة الذكاء الاصطناعي وتوجيها معيبة أو تمييزية أو قديمة أو لا تمتّ بصلة بالموضوع المطروح، ويولّد تخزين البيانات الطويل الأمد مخاطر معينة، حيث يمكن استغلال البيانات في المستقبل بطرق غير معروفة بعد في يومنا هذا.

وتثير الاستنتاجاتُ والتوقّعات وعمليات الرصد التي تقوم بها أدوات الذكاء الاصطناعي، بما في ذلك البحث عن إيضاحات حول أنماط السلوك البشري، أسئلةً جديةً. وقد تؤدي مجموعات البيانات المتحيزة التي تعتمد عليها أنظمة الذكاء الاصطناعي إلى اتّخاذ قرارات تمييزية، وتبقى الفئات المهمّشة أصلاً أكثر عرضة لهذا النوع من المخاطر.

أفكارك وتعليقاتك