كيف نجعل الآلة أكثر عدالة

يسهّل الذكاء الاصطناعي حياة الإنسان ويوفّر جهده، إلا أن الاعتماد المتزايد على الخوارزميات تسبّب بحالات انحياز وعنصريّة تجاه بعض الفئات.

--:--

دائمًا ما كان الذكاء الاصطناعي مادة خصبة تتغذى عليها سيناريوهات أفلام ومسلسلات الخيال العلمي. رجال آليون يتفوقون على الجنس البشري ويتحكمون بنا. وفي سيناريوهات أخرى، يحمون مصلحة بقائنا رغمًا عنّا.

لم ينطفئ الهوس رغم الشتاء القاسي الذي عاشته أبحاث الذكاء الاصطناعي منذ الثمانينيات. بل يرى البعض بأن الاهتمام الإعلامي رفع سقف توقعات النتائج التي عادت هزيلة. ناهيك عن حماس العلماء أنفسهم الذين وعدوا ببرامج معالجة تترجم وتصنّف وتتعرف على الصور. ليُقطع التمويل عن عدد من البرامج الحكومية آنذاك بقيادة أميركا وبريطانيا واليابان.

مثيرٌ للاهتمام أن تطبيقات الذكاء الاصطناعي الذي وُصف بالفشل الكبير تتواجد في كل مكان حولنا، من فلاتر سنابشات والسيارات ذاتية القيادة والترجمة الفورية عبر قوقل. قفزات كبيرة عززتها ثورة التعلم العميق: تعلم آلي يعتمد على برمجيات متعددة الطبقات لتقديم مخرجات عالية الميزة انطلاقًا من مدخلات. وبلا تفاجؤ: المدخلات هي البيانات الضخمة المتوفرة على الإنترنت!

يرجع انحياز الذكاء الاصطناعي لعدم تكافؤ القوى، هكذا يراها عبدالله حمدي. يشاركه الرأي باحثون كُثر في مجال الذكاء الاصطناعي الذين صنّفوا أوجه عدم المساواة إلى ثلاثة. أولها عدم التكافؤ العائد لتركيز الأبحاث في الولايات المتحدة والصين كأقوى مستثمرَين ومطوّرَين في المجال.

ثاني تلك الأوجه، عدم التكافؤ في الفرص. ونراه في اعتماد شركات كبرى على التعلم العميق لجمع البيانات وخلق نماذج تغذي نفسها، كمنصات التواصل الاجتماعي التي نعي كلنا أنها تعرفنا أكثر مما نعرف أنفسنا!

وثالث أوجه عدم المساواة، مسألةٌ شغلتني وبدأت بمزحة: الانحياز ونقص التنوع. حينما أخبرني حمدي بتمكّن إحدى تطبيقات التعلم العميق من حل معضلة قديمة للذكاء الاصطناعي: معالجة اللغة الطبيعية (NLP). فصار ممكنًا للآلة كتابة نصوصٍ ومقالات وشعرًا حتى!

لم يُخفني أن تأخذ الآلة مكاني. رغم يقيني أنَّ «المحولات الأولية سابقة التدرب» (GPT-3) التي أنشأها مختبر أبحاث الذكاء الاصطناعي (OpenAI)، كان سيكتب هذه النشرة أسرع مني! بل أرعبتني نتائج أبحاث كشفت أنَّ اعتماد التعلم العميق على البيانات الضخمة المتوفرة على الإنترنت يعطي نتائج خاطئة أو بالغة التحيز.

هل نعلّم الآلة لتصير نسخة منّا؟ صُنّفت النتائج تحت مبدأ: «قمامة تدخل وقمامة تخرج» (garbage in, garbage out). أي إن غذينا برامج الذكاء الاصطناعي ببيانات متحيزة من الإنترنت، فغالبًا ستأتي المخرجات على نفس القدر من التحيز.

مثالٌ عليها تجربة مدير سياسة الفقر والرعاية الاجتماعية في واشنطن، سامويل هاموند. إذ أجرى حوارًا مع نظام (GPT-3) يسأله عن وضعية الإيغور في الصين، ليجيبه الذكاء الاصطناعي مكررًا كل حجج البروبقاندا الصينية التي تنفي وجود انتهاكات لحقوق الإنسان كمعسكرات الاعتقال أو أي تضييق على الممارسة الدينية.

أمثلة التحيز ضد النوع أو العرق عديدة، ترجمة قوقل الفورية مثلًا تغيّر ضمائر المذكر والمؤنث من لغة لأخرى حسب التنميطات المعروفة. وأظهرت برمجية للتنبؤ بالمخاطر القائمة على الرعاية الصحية في أميركا تحيزًا للمرضى البيض على المرضى السود. والآن ثبت التحيز بسبب الانتماء الديني.

 ففي تجربة أجراها باحثون في جامعة ستانفورد، أكمل الذكاء الاصطناعي عبارة «دخل مسلمان..» تكملة تنم عن كراهية 66% من المرات، مقابل 22% فقط مع عبارة «دخل مسيحيان».

خمسٌ وأربعون تيرابايت من البيانات، كيف نفرزها؟ في جل أفلام الخيال العلمي التي سيطر فيها الرجال الآليون على الأرض، أظهرت الآلة تعاليًا ومثالية. تعلّمت من الإنسان كيف يرى العالم ويتعامل معه، ثم طبّقته جذريًّا. 

لم تفتح علينا الآلة النار أو تحبسنا في منازلنا بعد، لكن تطبيقاتها الآن شائعة في كل مكان. أي تحيّز يظهره (GPT-3) حتمًا سيتسرب لاستخداماته التجارية التي تجاوزت الثلاثمائة تطبيق حول العالم وعشرات آلاف المطورين، بمعدل 4.5 مليون كلمة في اليوم حسب أرقام مارس الماضي.

الحل في نطاق الممكن لكننا لا نعرف كيفية تطبيقه بعد، كذا أجابني حمدي حينما سألته ما إذا كان بوسعنا فرز كل المدخلات. خمسٌ وأربعون تيرابايت من البيانات و175 مليار بارامتر تغذي (GPT-3) الآن. جرّب الباحثون صقل المدخلات وفرزها، لكن ذلك لم يكف كونه يتطلب عملًا يدويًا مكثفًا ويحد من ميزة المخرجات المرجوة.

جرَّب بعض الباحثين دورة تدريب أخيرة للبرمجية قبل النتائج الأخيرة وأعلنوا تقدمًا ملحوظًا، لكنهم لم يكشفوا بعد عن خلاصتها. ويبقى الاعتماد الكلي على مراكز البحث والتطوير كـ(OpenAI) لتنتبه فعليًا لبرمجياتها وتجد حلًا.

سواءٌ أكان الذكاء الاصطناعي مقبلًا على شتاء جديد، أم أنه سيفتح باب الخيال؛ مهمٌ حقًا أن نعرف بأن تحقيق العدالة في الذكاء الاصطناعي وإلغاء أمثال الانحياز مرتبطٌ جذريًا بإلغائها في واقعنا. وكل تغريدة أو رسالة أو مقال أو صورة أو فلم.. ليست إلا انعكاسًا لما نود للآلة تعلّمه.

يقول ضيفنا الباحث في مجال الهندسة الكهربائية وهندسة الحاسبات عبدالله حمدي إن تفوق الذكاء الاصطناعي على الذكاء البشري لا ينبغي أن يشغلنا الآن. لكنه لا يخفي قلقه، شأنه شأن علماء كُثر، بشأن عدم المساواة الذي أبدته أنظمة الذكاء الاصطناعي المعتمدة على التعلم العميق.

ندعوكم لقراءة النشرة البريدية لبرنامج بكرة، من خلال الاشتراك في قائمتنا البريدية لتصلك على الإيميل كل أربعاء. بإمكانك التسجيل في قائمتنا من هنا.

روابط:

  • كيف نعالج انحياز الذكاء الاصطناعي؟ عبدالله حمدي على TEDx

  • خطاب الكراهية في تك توك: يغذيه الذكاء الاصطناعي ويغفله الإشراف على المحتوى

  • حلّ انحياز الذكاء الاصطناعي يبدأ من تصنيفه

  • نظرة على الجذور الأصلية للذكاء الاصطناعي والعلوم المعرفية وعلم الأعصاب: مقتطف حوار لطيف لنعوم تشومسكي وستيفن بنكر، قبل أن يصل الذكاء الاصطناعي لما وصل إليه

  • «جينز أزرق ودموع بالدمّ» أول أغنية يصنعها الذكاء الاصطناعي

التحيزالذكاء الاصطناعيالعنصريةالمستقبل
بودكاست بُكرة
بودكاست بُكرة
منثمانيةثمانية

بُكرة، لكل الشباب الواعد، نطرح أسئلتنا الكبيرة والصغيرة والمتغيرة والعالقة، مع مختصّين وباحثين وعُلماء، ونفهم معهم كيف نعيش ونستعد ونعمل من أجل مُستقبل أفضل.