المسؤولية الأخلاقية أمام أنظمة الذكاء الاصطناعي

المسؤولية الأخلاقية أمام أنظمة الذكاء الاصطناعي

فهد الحازمي 21 يوليو، 2020
هل تود أن تستمتع للمقالة صوتيًا على شكل محادثة؟
اشترك في بودكاست أرباع للاستماع لمقالات ثمانية في لقاءات حصرية مع كتّابه

لا يكاد يمر يوم دون أن أقرأ على تويتر خبرًا يتحدث عن أخلاقيات الذكاء الاصطناعي وذلك لأنه شهد تحولات مهمة خلال العقد المنصرم.

تبدأ الحكاية من مسابقة إيماجينيت imagenet والتي انطلقت في نسختها الأولى عام 2007، وكان هدفها حث المتسابقين على تطوير نظام يصنف حوالي 14 مليون صورة إلى أكثر من 200 ألف صنف.

وتعتبر المسابقة بمثابة أولمبياد علمي تتنافس فيه مختلف المعامل البحثية من أنحاء العالم لاستعراض مهاراتها وقدراتها. وطوال تاريخ المسابقة، لم يقل معدل الخطأ عن 25% باستخدام خوارزميات كلاسيكية.

ولكن مع انطلاق ربيع الذكاء الاصطناعي عام 2012، تمكن فريق بحثي في جامعة تورنتو الكندية بقيادة البروفيسور جوفري هنتون -أحد رواد حقل الذكاء الاصطناعي- من بناء نظام قادر على تصنيف الصور بدقة غير مسبوقة (بمعدل خطأ يقارب 16%) أهلته للفوز بالمركز الأول.

ويرجع الفضل في ذلك لاستخدام نظام الشبكة الاصطناعية الترشيحية العميقة Deep Convolutional Neural Network لتصنيف الصور، وهو أحد أهم تقنيات الذكاء الاصطناعي اليوم.

من تلك اللحظة، أخذ معدل الخطأ بالانخفاض بشكل متسارع حتى بلغ اليوم أقل من 3٪. دفع النجاح في تصنيف هذا الكم الهائل من الصور بالعديد من المعامل البحثية والشركات لزيادة استثماراتها في الذكاء الاصطناعي في السنوات اللاحقة لتنال قصب السبق فيما اعتُقد أنه الثورة الصناعية الرابعة.

وعلى الرغم من أن شكل الثورة الصناعية الرابعة لم يتضح بعد، أخذ الثمن الاقتصادي والاجتماعي لتطبيق أنظمة الذكاء الاصطناعي بالاتّضاح بشكل أكبر عامًا بعد الآخر.

استثمار الصين في تقنية التعرف على الوجه

يعد سوق كاميرات المراقبة العامة اليوم أكبر من أي وقت مضى، حيث يوجد في الصين أكثر من نصف مليار كاميرا يتزايد إنتاجها بشكل مستمر. وبالرغم من وجود قوانين تحدُّ من استعمال هذه التقنية، لم تتبد مخاوف إساءة استخدام الذكاء الاصطناعي للسطح حتى في عام 2019 حين تطرّقت العديد من الصحف الأميركية لاستثمار الصين في التعرف على أقلية مسلمي الإيغور باستخدام تقنية التعرف على الوجه.

تحتوي قاعدة البيانات المسربة على معلومات عن السكان مثل التاريخ الإجرامي وميزات الوجه: وجود اللحية أو القناع وكذلك العِرق، إن كان من Han (عرق غالبية السكان) أم من عرق منطقة الإيغور (وهي منطقة تسكنها أقلية مسلمة تعاني من اضطهاد الحكومة الصينية باسم محاربة الإرهاب).

ومع تميّز الأقلية بمسحات تشبه سكان وسط آسيا، على خلاف باقي الأعراق، سَهُل على تقنيات التعرف على الوجوه تمييزهم. وعلى الرغم من انخفاض دقة هذه الأنظمة، شهدت النسبة ارتفاعًا مطردًا في السنوات الماضية مع تزايد الاستثمارات في هذه التقنية.

تستخدم هذه القصة في الأوساط الغربية للتحذير من خطورة استغلال الأنظمة الشمولية لتقنيات الذكاء الاصطناعي بما يعزز من القمع الذي تمارسه على مواطنيها، إلا أن هذه النظرة محدودة للغاية.

تقنية التعرف على الوجه في أميركا 

في عام 2016، برزت شركة إسرائيلية تزعم أن نظامها قادرٌ على التعرف على الإرهابيين من خلال ملامح الوجه فقط، بل واستطاعت توقيع عقد مع أحد متعاوني وزارة الأمن الداخلي الأميركية. وعلى الرغم من الأصوات المحذّرة من تبعات هذه الخطوة، لم يكترث أحدٌ حتى عام 2019 حين نشرت صحيفة النيويورك تايمز تقريرًا عن كلير فيو Clearview، الشركة التي تعمل في الخفاء والتي سحبت مليارات صور الوجوه على الإنترنت واستخدمتها لبناء محرك بحث يشبه إلى حد كبير محرك بحث گوگل للصور.

نظام التعرف على الوجه - أنظمة الذكاء الاصطناعي
نظام التعرف على الوجه للشرطة الأميركية في مؤتمر تقني بواشنطن / Getty Images

تتوفر هذه الخدمة حاليًا للجهات الأمنية كأقسام الشرطة وجهات الضبط الحكومية في أميركا، ويتعامل معها اليوم أكثر من ستمائة جهة وسط تزايد مستمر في عدد العملاء عامًا بعد الآخر. فبمجرد إدخال صورة شخص يقوم النظام بالبحث عن هذه الصورة بين مليارات الصور، ومن ثم تحديد الصفحات أو المواقع التي يظهر فيها هذا الشخص مثل مواقع التواصل الاجتماعي.

وعلى الرغم من أن الشركة لا تستخدم بيانات كاميرات المراقبة المباشرة كما يحصل في الصين، يعدُّ بناء قاعدة بيانات بهذا الحجم انتهاكًا مباشرًا لخصوصية الأفراد.

تُستعمل المخاوف من إساءة استعمال الذكاء الاصطناعي للتحذير مما قد يحصل مستقبلًا إذا ما تُرك الحبل على الغارب. لكنها لا توفر لنا أي فكرة عن موضوع أخلاقيات الذكاء الاصطناعي، وما يجب أن نفعله حتى نضمن التزام هذه الأنظمة بالحد الأدنى من المبادئ الأخلاقية. 

وحتى نفهم أكثر مختلف جوانب أخلاقيات الذكاء الاصطناعي، سأتحدث في الفقرات القادمة عن الانتهاكات الأخلاقية التي ترتكبها أنظمة الذكاء ممثلة في الانحياز وغياب الشفافية والمسؤولية، وكيف نتعامل معها. 

الانحياز في أنظمة الذكاء الاصطناعي

يشكل الانحياز في الذكاء الاصطناعي أهم المشكلات، إذ أن وجود أي انحياز في بناء وتدريب هذه الأنظمة سيؤدي بطبيعة الحال إلى انحياز في المخرجات والقرارات التي تنتج عنها.

لنتخيل أننا نريد استخدام الذكاء الاصطناعي في توقع ميول للعنف. فإذا كنا نريد فعلًا توقع هذا الميول بغض النظر عن أي متغير آخر، فهنا نفترض أن البيانات مجمعة من كل الأحياء أو كل الأعراق وبشكل يمثل العينة الكلية.

ولكن المشكلة هنا هي أن البيانات التي تغذي أنظمة الذكاء الاصطناعي لا تمثل بالضرورة العينة الكلية، بل جزءًا منها. فبدلًا من وجود كل الأحياء بشكل متساوٍ، ستجد أن البيانات تتركز بشكل أكبر في الأحياء التي ينتشر فيها العنف، ويقل جمع البيانات من الأحياء التي تعتبر آمنة، ليصير من الطبيعي أن يستنتج النظام وجود معدلات جرائم أعلى في تلك الأحياء التي يملك عنها بيانات أكبر.

انحياز أنظمة الشرطة الأميركية 

تستخدم العديد من أقسام الشرطة في أميركا أنظمة التعرف على الوجه المقدمة من الشركات التقنية، مثل نظام Rekognition من أمازون، لشتى الأغراض مثل توقع الجريمة أو التعرف على الصور.

ولكن مشكلة هذه الأنظمة هي أنها مبنية على بيانات منحازة تحتوي على تمثيل أكبر لبعض الأعراق دون غيرها بما يؤدي إلى أخطاء فادحة في التمييز بين وجوه هذه الأعراق بشكل يعزز من الانحياز ضدهم في الممارسات الأمنية المختلفة مثل تكثيف الجولات الأمنية في مناطق أقليات السود مقارنة بغيرها، مما يؤدي في النهاية إلى تعزيز الانحيازات القائمة.

وهذا السبب هو الدافع وراء حث العديد من النشطاء والباحثين في أكبر الشركات على إعادة النظر في التعاون مع أقسام الشرطة، نظرًا لاحتمالية إساءة استخدام هذه التقنيات. وبالفعل أعلنت أمازون ومايكروسوفت وآي بي إم عن توفيرها لخيارين اثنين، إما التوقف عن الاستثمار في هذه التقنيات، أو التوقف عن بيعها لأقسام الشرطة حتى يظهر قانون جديد ينظم هذا السوق الذي تبلغ قيمته 8 مليارات دولار.

لا تتركز مشكلات الانحياز على تقنيات الصور والتعرف على الوجوه فقط، بل تنطبق على باقي تطبيقات الذكاء الاصطناعي مثل ترجمة النصوص، حيث يقوم مترجم گوگل باقتراح ترجمات منحازة للذكور، أو استرجاع المعلومات مثلما اضطرت شركة گوگل للإعتذار في العام 2015 عندما أظهرت نتائج البحث صور السود حين البحث عن كلمة «غوريلا».

أو تحليل العواطف في النصوص، حيث تبين أن أنظمة تحليل المشاعر تختلف مخرجاتها إذا احتوى النص على أسماء شائعة بين الأميركيين السود مقابل الأميركيين البيض. ومنذ ذلك الحين تقوم گوگل إلى جانب الشركات الأخرى بالاستثمار في جهود التعرف على الانحياز ومعالجته مثل اقتراح ترجمات مختلفة بحسب الجنس.

شفافية المخرجات وقابليتها للتفسير

ولكن مهما بلغ سوء الانحياز في البيانات المستخدمة في بناء وتدريب أنظمة الذكاء الاصطناعي، يبقى تجنب ومعالجة هذا الانحياز ممكنًا في حالة واحدة فقط: إذا كانت هذه الأنظمة تتمتع بقدر من الشفافية يسمح للأطراف المعنية بالتحقق منها.

ولكن هذا الأمر متعذر لأسباب عديدة أبرزها يعود إلى مدى تعقيد هذه الأنظمة بشكل يجعلها أشبه بالصناديق السوداء التي لا يُعرف ما بداخلها.

فأهم الأنظمة الذكية التي حققت نجاحات كبيرة في معالجة الصور أو النصوص هي عبارة عن شبكات اصطناعية ضخمة بمليارات الأوزان، وقد يستغرق تدريبها باستخدام المعالجات الرسومية المتقدمة من عدة أيام إلى عدة أشهر وبميزانيات تصل إلى ملايين الدولارات.

يجعل هذا التعقيد من مهمة تفسير القرارات الناتجة مهمة صعبة للغاية رغم الأهمية الأخلاقية والقانونية، مما شجع الكثير من الباحثين على العمل فيه حتى بزغ فرع جديد لدراسة القرارات الصادرة عن هذه الشبكات الضخمة تحت مسمى Explainable AI.

ويعتبر أهم عامل وراء هذه الجهود هو أن ثقة المجتمع والمستهلكين بأنظمة الذكاء الاصطناعي منوطة بالقدرة على تفسير المخرجات، مهما بلغت دقتها. ومرة أخرى، نجد أن كبريات الشركات التقنية تستثمر في هذا الخط البحثي لأهميته البالغة إذا ما تحولت هذه الأنظمة إلى تطبيقات تجارية.

ولا عجب أن نجد حق التفسير (right to explanation) قانونًا حيث أقر الاتحاد الأوربي هذا الحق ضمن النظام الأوربي العام لحماية البيانات GDPR، إذ يلزم الجهات التي تستخدم الذكاء الاصطناعي بتقديم تفسير للمستخدم وراء القرارات القائمة على تقنية الذكاء الاصطناعي. 

مشكلة المسؤولية

لنتخيل هذا السيناريو: يصلك اتصال من الشرطة يبغلك بأنه سيتم اعتقالك بتهمة سرقة حصلت قبل عام، وذلك لأن نظام التعرف على الوجه قام بمطابقة صور كاميرات المراقبة بصورتك. هذا السيناريو ليس من ضرب الخيال بل حصل فعلًا في العام المنصرم في مدينة ديترويت الأميركية إذ اعتقل لذات السبب أميركي أسود لعدة ساعات قبل أن يتم الإفراج عنه وإغلاق القضية بعد تبيّن براءته.

روبرت جوليان بورشاك ويليامز المقبوض عليه عن طريق الخطأ / The New York Times

ولهذا تنظر المحكمة اليوم في أول شكوى ناتجة عن الانحياز في أنظمة الذكاء الاصطناعي في قضية هي الأولى من نوعها في العالم.

لعل السؤال المطروح هو من يتحمل هذا الخطأ؟

هل تتحمله الشرطة التي اتخذت القرار أم الشركة التي صنعت هذا النظام ودرّبت نظام الذكاء الاصطناعي، وما الشرطة إلا متعاقد؟

ما يزيد الطين بلة هو أن الشركات التقنية -ولأسباب تتعلق بحقوق الملكية- لا تفصح عن أساليب اختبار هذه الأنظمة ولا عن دقتها بل إن المسؤولية القانونية لها ما تزال ضبابية رغم دورها المحوري في هذه الحادثة.

تذكرنا هذه الواقعة بحوادث السيارات ذاتية القيادة (مثل تسلا وأوبر) والتي سبق ونتج عنها وفيات أو إصابات. ويظل السؤال القائم: هل تتحمل الشركة أي جزء من المسؤولية القانونية أم يتحملها الشخص الذي اتخذ قرار مباشرة الثقة في مخرجات الذكاء الاصطناعي؟ وماذا لو وصلنا إلى مرحلة السيارات ذاتية القيادة المستقلة تمامًا، ماذا سيكون نصيب الشركة من المسؤولية القانونية؟

في خطوة للتقليل من تبعات هذا الأمر، أقرت كاليفورنيا في 2018 قانونًا ينص على تجريم استخدام البوت، وهي تقنية مثل الحسابات الآلية، لتضليل الآخرين بمعنى أن البوت يجب أن يعرف عن نفسه كنظام آلي وإلا اعتبر ذلك جريمة يحاسبه عليها القانون.

إضافة إلى ذلك، عقد مجلس النواب الأميركي في العام المنصرم جلسة كاملة للتباحث بشأن دور الذكاء الاصطناعي فيما يسمى بالتزييف العميق (Deepfake)، حيث تستخدم هذه التقنية إحدى تطبيقات الذكاء الاصطناعي لصناعة مقاطع مزيفة تمامًا يصعب تمييزها عن المقاطع الحقيقية وتعتبر هذه الممارسة ممنوعة قانونيًا ومجرّمة في أغلب الدول. 

المبادئ الأخلاقية المقترحة لأنظمة الذكاء الاصطناعي

ولكن ما الذي يجب على أنظمة الذكاء الاصطناعي فعله لحماية خصوصية الأفراد؟ لا يتوقف الجواب عن هذا السؤال على الباحثين والعاملين في تطوير هذه التقنية فقط، بل هي مهمة اجتماعية يجب أن تساهم فيها كل الأطراف المعنية من صناع القرار إلى المستهلكين.

وحتى نستطيع الإجابة، نحن بحاجة إلى نظام أو مبادئ أخلاقية عامة متفق عليها.

بدأت المحاولة الأولى للإجابة على هذا السؤال في أواسط القرن الماضي، حين قام روائي الخيال العلمي ذائع الصيت إسحاق أزيموف بكتابة ثلاث قوانين مقترحة لسلوك الروبوتات: أولها لا يسمح للروبوت بإلحاق الضرر بأي إنسان، وثانيها أن يتبع الروبوت أوامر الإنسان متى ما لم تتعارض مع القاعدة الأولى، أما القانون الثالث فينص على أن  يحمي الروبوت نفسه طالما لم تتعارض حماية النفس مع القاعدتين الأولى والثانية.

قوانين الروبوتات الثلاثة / History of AI

لا تفيدنا هذه القوانين الثلاثة كثيرًا أمام الواقع العملي اليوم الذي تتصارع فيها القوى المختلفة ويصعب فيها تعريف ماهية الضرر.

ولكن البعض يقترح تحديثًا إضافيًا لهذه القوانين، بحيث تخضع أنظمة الذكاء الاصطناعي لنفس القوانين التي تُطبق على البشر وبذلك تتحمل الجهة المصنعة المسؤولية القانونية لنظام الذكاء الاصطناعي في حال ارتكاب جريمة، ثم إلزامية الإفصاح المسبق في حال استخدام أنظمة الذكاء الاصطناعي في الحوارات أو خدمة العملاء مثلًا، وذلك لتجنب خداع البشر. وأخيرًا لا يجب أن يجمع الذكاء الاصطناعي أي معلومات شخصية بدون موافقة مسبقة.

وحتى وإن شكّلت هذه القوانين الجديدة قفزة كبيرة مقارنة بالقوانين الثلاث الأولى، تبقى في المجمل محدودة إلى حد كبير على تطبيقات محددة، ولا تتمتع بأي شرعية قانونية أو أخلاقية. ولهذا نجد اليوم العديد من المؤسسات التي تضع رؤيتها لأخلاقيات الذكاء الاصطناعي لتتجنب فخ البساطة وحتى تضفي شرعية أكبر على هذه المبادئ.

«لا تكن شريرًا»

سنبدأ من گوگل التي اشتهرت طوال تاريخها بشعار «لا تكن شريرًا» لتلغيه في أواسط 2018، بعد أن أنهت تعاقدها في مشروع مافن الذي يهدف لاستخدام الذكاء الاصطناعي في عمليات الجيش الأميركي.

نشر الرئيس التنفيذي حينها تدوينة يشير فيها للمبادئ العامة التي ستسير أنشطة الذكاء الاصطناعي داخل الشركة. وحسب هذه المبادئ، يجب أن تعود تطبيقات الذكاء الاصطناعي بالنفع على المجتمع كافة، مما يستوجب أخذ المعطيات الاجتماعية والاقتصادية بعين الاعتبار والتيقن من أن المصلحة المحتملة تغلب المضار المتوقعة.

كما يجب أن تتجنب تطبيقات الذكاء الاصطناعي الانحيازات الجائرة خصوصًا تلك المبنية على النوع أو العرق أو الدخل أو الديانة أو المقدرة الجسدية أو ما إلى ذلك؛ وأن تتمتع بحد أدنى من الأمان والقابلية للتفسير وحماية خصوصية البيانات.

وكان الرئيس التنفيذي قد أكد كذلك على التزام الشركة بعدم تصميم أو بناء أي أنظمة يغلب عليها الضرر الكلي، أو المساهمة في استخدام الذكاء الاصطناعي لتطوير أسلحة الحرب وأي وسيلة هدفها الأساسي إلحاق الضرر بالآخر، أو تطوير أنظمة تجمع أو تستخدم بيانات المراقبة أو المساهمة في أي تطبيق يهتك القانون الدولي وحقوق الإنسان. 

وهنا سأشير أيضًا إلى إحدى المبادرات العربية القليلة التي تتناول هذه القضية وهي مبادرة دائرة دبي الذكية بخصوص المبادئ الأخلاقية التي يجب أن تقود الذكاء الاصطناعي والقائمة على: العدالة والقابلية للمساءلة والشفافية والتفسير.

تقييم أخلاقية الأنظمة 

وبالرغم من أن هذه المبادئ غير إلزامية ومازالت تحت التطوير إلا أنها مفيدة للغاية حيث توفر أداة تقييم ذاتي لكل هذه المبادئ الأربعة التي تستهدف مهندسي ومطوري الذكاء الاصطناعي لتقييم أخلاقية الأنظمة التي يعملون عليها.

وتأتي المبادرة إلى جانب العشرات من المبادرات المشابهة في أميركا وكندا والعديد من الدول الأوربية والآسيوية، حيث تهدف إلى تحديد الأطر الأخلاقية التي يمكن الاستعانة بها لضبط تطوير أنظمة الذكاء الاصطناعي، وتتشارك في العديد من الخطوط العامة مثل مبدأ النفع والشفافية. 

ولكن هل ستجدي هذه الأنظمة في كبح جماح الأطماع الرأسمالية، في الوقت الذي يقدّر أن يصل عائد أنظمة الذكاء الاصطناعي في 2030، أي بعد عقد من اليوم، 13 ترليون دولار؟ أم أن الضمير الإنساني الساعي وراء العدالة سيكون الضامن الأقوى؟ هذا ما سنراه حتمًا في الأعوام القليلة القادمة.


هذه المقالة ضمن ملف كيف تؤثر فينا التقنية؟

لا مناص اليوم من التكنولوجيا كبوصلة تقود حياة الإنسان وفي الغالب ما تحدد اختياراته وذائقته دون وعي منه. في هذا الملف، مجموعة مقالات حول هذا الأثر الذي يتجاوز مجرّد نقر زر الإعجاب هنا وهناك إلى ذاك الذي تخلفه على صحتنا العقلية وعلاقتنا بذواتنا ومحيطنا.
3
إذا ما أردنا عدّ أهمّ الشخصيات تأثيرًا في تاريخ علم...
2
قبل سنوات، طلبت مني القناة الرابعة البريطانية مرافقتي بضع أيام...
1
قبل عدة أيام، ذهبت صباحًا مع صديقي إلى أحد المقاهي...
النشرة السريّة
اشترك لتصلك رسالة أسبوعية فيها ملخص الأسبوع، على طريقة ثمانية
لن نستخدم بريدك خارج نطاق النشرة إطلاقًا

×

×