حرية التعبير تحت رحمة الآلة
هل أصبحت حرية التعبير تحت رحمة الآلة؟ يبدو أن الأمر أصبح كذلك مع انتشار استخدام الذكاء الاصطناعي تقييم مشاركات المستخدمين، خاصةً على الشبكات الاجتماعية.
ماذا تعني حرية التعبير في زمن الآلة؟ أعلنت قوقل قبل فترة عن إطلاق برنامج “أبطال يوتيوب” الذي يريد أن يزيد من مستوى تفاعل المستخدمين عبر المشاركة في تحسين المنصة بعدة طرق منها التبليغ عن الفيديوهات والتعليقات المسيئة. جوجل كعادتها لن تترك الأمر للبشر فهي تفكر في الاستعانة بالذكاء الاصطناعي من ترشيح التعليقات المسيئة.
قامت شركة “Jigsaw” الصغيرة التابعة لقوقل والتي تعمل من مدينة نيويورك بتطوير ذكاء اصطناعي يعمل على التعرف على الكلام المسيء بنسبة دقة عالية. فهو يستنبط الكلمات المسيئة والجارحة من سياق الجمل ويتعلم ويتطور بشكل مستمر وجوجل تريد الاستفادة منه في ترشيح أكبر مشكلة على يوتيوب وهي، التعليقات.
مطوروا هذا النظام لا يريدون أن يكونوا مجرد أداة لترشيح التعليقات ففي هذه المقالة على Wired يتحدثون عن رغبتهم في استخدامه من أجل إنهاء الرقابة والإساءات السياسية التي قد تقف خلفها الحكومات أو الجهات المعارضة، وما يقصدونه أنهم يرغبون في أن يكون ذكائهم الاصطناعي مرشحًا لكل ما ينشر، وهو هدف نبيل وبسيط في الظاهر لكنه يحمل في داخله الكثير من التعقيدات التي قد تمس حرية الرأي حول العالم.
الآلة في مواجهة حرية التعبير
هذه الفكرة المدعومة من قوقل بدأت في إثارة غضب الكثير من الناس الذين يرون أنها خطوة في مسيرة تكميم الأفواه وحرية إبداء الرأي. وقد بدأت مجموعة في أحد أقسام موقع 4chan الشهير في محاربتها بخطوة ذكية وغريبة وهي استبدال الكلمات العنصرية بأسماء شركات أو حلويات.
مثلا كلمة “Muslim” سوف يتم استبدالها بكلمة “skittle”، أما كلمة قوقل فسيتم استبدالها بكلمة “Black” وهلم جرا. هم بهذه الطريقة يسعون إلى خداع الذكاء الاصطناعي الذي سوف يربط الكلمة بالسياق المسيء ومع مرور الوقت سيعتقد أنها كلمة مسيئة وسيبدأ في ترشيح كل ماينشر ويحتوي على هذه الكلمة وتصنيفه على أنه عنصري أو مسيء. لو كنت تعتقد أنها خطوة سخيفة فيجب أن تعرف أنها قد أثرت بالفعل على نتائج قوقل حيث يبدو أن جوجل تعتقد أن كلمة “Google” مرادفة لكلمة “Black”.
الذكاء الاصطناعي ليس محايدًا
ما هي حرية التعبير عن الرأي؟ ومتى يصبح الحوار مسيئًا ويجب ترشيحه؟ مثل هذه الأسئلة لن تجد لها إجابات موحدة وتختلف من شخص إلى آخر، ومن بلد إلى بلد، وحتى من دين إلى دين. هذا الشيء دفعني للتساؤل عن إمكانية تطبيق ذكاء اصطناعي محايد 100% يلائم الجميع.
بحسب فهمي، فإنك لن تستطيع الوصول إلى نظام محايد بشكل كامل وذلك بسبب أن الآلة بحاجة إلى معايير تبني عليها حكمها وهذا الشيء يعني أن رأيها يتأثر بمن صنعها وقد قمت بتوجيه هذا السؤال للدكتور مازن مليباري المختص في الذكاء الاصطناعي:
“لا يمكن بناء نظام محايد، لأنك ستضطر لتعريف كلمة محايد، وطالما أن الكلمة نفسها ليست مما هو متفق عليه بالإجماع فهذا أمر شبه مستحيل. هذه القضية قريبة من طريقة عمل الرياضيات بشكل عام، ففي الرياضيات نبدأ بمسلمات (Axioms) ثم نبني عليها نظريات، لكن لو جاء شخص وقال أنه غير متفق مع هذه المسلمات فيصبح كل ما بني عليها باطل (بالنسبه له) وسيحتاج لبناء نظريات جديدة متسقة مع مسلماته.”
متى ما أصبحت الآلة من يقرر نوعية الأمور التي تنشر وتظهر في نتائج البحث، فهي سوف تسير على نهج صانعيها الذين قد لا يعجبهم رأيك، فكرك وتعليقات التي تنبع من قناعات معينة قد لا تكون متلائمة مع نظام الترشيح الذكي الذي سيخفيك من نتائج البحث والظهور في أي مكان.
في رواية 1984، لجورج أورويل، كان بطل القصة يعمل في قسم يقوم بترشيح الأخبار التي لن تعجب الحكومة ويقوم بشطبها وتعديلها ومن ثم نشرها. هذا الشيء كان يبقي الناس في فقاعة مغلقة تبقيهم في معزل عمّا يدور حولهم. ودخول الذكاء الاصطناعي مجال حرية الرأي والترشيح سواءً على يد جوجل أو غيرها ما هو إلا شكل من هذه الأشكال. والمستقبل مليء بالمفاجئات.