أحد صفحات التقدم العلمي للنشر
اخترنا لكذكاء اصطناعيملف خاص

التنوع في الذكاء الاصطناعي: الرجال الخفيون والنساء الخفيات

في يونيو 2020 اندلعت أزمة في عالم الذكاء الاصطناعي. فقد انفجر نقاش على تويتر Twitter بعدما ظهر التحيز العنصري لأداة جديدة لإنشاء صور واقعية عالية الدقة للأشخاص من صور منخفضة الجودة، فحولت صورة منخفضة الجودة لكن معروفة للرئيس السابق باراك أوباما إلى صورة عالية الدقة لرجل أبيض. وسرعان ما نشر الباحثون صوراً لأشخاص آخرين من ذوي البشرة السوداء والآسيوية والهندية، وقد تحولوا إلى أشخاص من ذوي البشرة البيضاء.

بعد ذلك ازدادت حدة الحوار. وأعرب اثنان من الباحثين المعروفين في مجال الذكاء الاصطناعي – كبير علماء الذكاء الاصطناعي على فيسبوك، يان لو كون Yann LeCun، والمسؤول المشارك في غوغل لأخلاقيات الذكاء الاصطناعي في غوغل تيمنت جبرو Timnit Gebru – عن وجهات نظر شديدة المتباين حول كيفية تفسير خطأ الأداة. وتبعت ذلك مناقشة ساخنة عبر الإنترنت دامت عدة أيام، قسمت الميدان إلى معسكرين متميزين: زعم البعض أن التحيز الواضح في النتائج جاء من بيانات رديئة (أي غير مكتملة) يجري تغذية الخوارزمية بها، في حين زعم آخرون أنها جاءت من قرارات سيئة (أي قصيرة النظر) في شأن الخوارزمية ذاتها، بما في ذلك البيانات التي ينبغي أخذها بالاعتبار.

لقد ابتُلِي مجال الذكاء الاصطناعي بالتحيز لسنوات، لذلك فإن تحويل الصور الفوتوغرافية من الأسود إلى الأبيض الذي أجرته أداة الذكاء الاصطناعي هذا ليس بالأمر غير المتوقع على الإطلاق. ومع ذلك، فإن ما أوضحه النقاش هو أن الباحثين في الذكاء الاصطناعي لم يعتنقوا جميعاً المخاوف في شأن التنوع. وهذه حقيقة ستؤثر جوهريا في أي مؤسسة تعمل في مجال الذكاء الاصطناعي.

والأمر الأكثر أهمية هنا هو أن العديد من المؤسسات لا بد أن تولي الاهتمام إلى ما يلي: لماذا لم يخطر لأي شخص أن يختبر البرنامج على حالات تتضمن أشخاصاً ملونين في المقام الأول؟

قد نزعم أن هذه حالة من عدم الوضوح. ففي بعض الأحيان يكون الأشخاص الملونون موجودين، ولا نرى ذلك. وفي أحيان أخرى لا نكون موجودين، لكن غيابنا لا يُلاحَظ. وهذه هي المشكلة الفعلية.

أزمة تولّد أخرى

جزء من المشكلة هو أن هناك عدداً قليلاً نسبياً من السود وغيرهم من الأشخاص الملونين الذين يعملون في الذكاء الاصطناعي. وفي بعض شركات التكنولوجيا الكبرى، كانت الأرقام قاتمة في شكل خاص: لا يمثل العاملون السود سوى 2.5% من إجمالي قوة العمل في غوغل، و4% من العاملين في فيسبوك وميكروسوفت. والمقارنات بين الجنسين صارخة أيضاً: عند المستوى العالمي، فإن 22% فقط من العاملين في مجال الذكاء الاصطناعي من الإناث، في حين أن 78% من الذكور. (الحسابات بسيطة لكنها جديرة بأن تُكشَف صراحة). وهناك أيضاً ندرة في التنوع في المناطق التعليمية، وهو أمر مزعج جدا لأن الكليات هي المؤسسات الأساسية حيث يُدَرَّب المهنيون العاملون في مجال الذكاء الاصطناعي.

وبالنظر إلى الدور المتنامي الذي يؤديه الذكاء الاصطناعي في عمليات الأعمال في المؤسسات، في تطوير منتجاتها، وفي المنتجات نفسها، سينمو الافتقار إلى التنوع في الذكاء الاصطناعي وعدم وضوح الأشخاص الملونين إلى سلسلة من الأزمات، مع تراكم المسائل على بعضها البعض، إذا لم يجرِ التعامل مع هذه التحيزات قريباً. فقد رأينا بالفعل الشركات تسحب دولارات إعلاناتها من فيسبوك بسبب سوء تعامله مع خطاب الكراهية. ورأينا الشركات تصدر قرارات بوقف بيع برمجيات التعرف على الوجه، والتي اعتُـرِف منذ فترة طويلة بأنها تنطوي على تحيز عنصري وجنسي.

وبصراحة، نحن في وقت تتيح فيه أزمة الجائحة والتكيف السريع للذكاء الاصطناعي لمتابعة انتشار كوفيد-19 فرصة فريدة لإحداث التغيير داخل عالم الذكاء الاصطناعي. ويشمل ذلك إجراء تغييرات على مشكلات التحيز المتأصلة التي يسببها التمثيل الناقص للمهنيين من السود والنساء، فضلا عن المجموعات الأخرى الممثلة تمثيلاً ناقصاً تقليدياً، في الميدان.

معالجة مشكلة عدم الوضوح في الذكاء الاصطناعي

في معالجة المشكلات العامة للنقص بالتمثيل في الذكاء الاصطناعي، يمكننا أن نتعلم من بعض النُهُج المحددة التي اتخذها مطورو الذكاء الاصطناعي أنفسهم.

هناك ثلاث نقاط حل أساسية:

1. إدراك أهمية الاختلافات Recognize that differences matter. في تعلم الآلة Machine learning، لا يكفي مجرد تغذية نظام تعليمي ببيانات متنوعة. بل إن نظام الذكاء الاصطناعي لابد أن يكون مصمماً لكي لا يتجاهل البيانات لمجرد أنه يبدو شاذاً استناداً إلى عدد ضئيل من نقاط البيانات.

وتماماً كما تشكل الاختلافات في البيانات أهمية كبيرة، كذلك تفعل الاختلافات بين القوى العاملة. ويشبه نهج الذكاء الاصطناعي في تبني بيانات متنوعة الاعتراف بوجود فارق بين المساواة والإنصاف في قوة العمل: وتعني المساواة تزويد الجميع بالموارد نفسها من ضمن عملية راسخة، لكن الإنصاف Equality يتطلب الانتباه إلى ما يحدث طيلة عملية ما، بما في ذلك دراسة مدى عدالة العملية ذاتها. ويتعين على المؤسسات أن تولي الاهتمام لجلب أصوات متنوعة، ليس فقط عندما تعمل لتوظيف الأشخاص، بل عندما تضع استراتيجيات فيما يتعلق بالاحتفاظ بالموظفين وتطويرهم أيضاً. ويتعين على الشركات أن تحتفظ بهذه الأصوات وألا تتجاهلها لأنها صغيرة في العدد.

2. إدراك أهمية التنوع في القيادةRecognize that diversity in leadership matters. في الذكاء الاصطناعي وتعلم الآلة، اعتُبِرت أساليب المجموعة — أي أنظمة التعلم التي تجمع بين أنواع مختلفة من الوظائف، وكل منها له تحيزات مختلفة خاصة به — لفترة طويلة أفضل أداءً من الأساليب المتجانسة تماماً. وتُعد أنظمة التعلم هذه من الأنظمة الرائدة في تحسين نتائج الذكاء الاصطناعي وتتنوع لجهة التصميم.

وبالموازاة مع ذلك، في المؤسسات التي ترغب في التعامل مع نقص تمثيل أصوات السود والنساء، نجد أن التنوع في القيادة يؤدي أيضاً إلى التنوع في كيفية إدراك المشكلات وكيفية تنمية المواهب. مثلاً، بعد إلغاء نظام فصل المدارس في الولايات المتحدة والذي أعقب قضية براون ضد مجلس التعليم القضائية عام 1954، شهدت الولايات المتحدة انخفاضاً كبيراً في التنوع بين المعلمين. وهناك ارتباط طردي بين هذا الانخفاض في التنوع بين حراس التعليم وبين الانخفاض المقابل في الطلبة السود الذين يُوصَى بهم لبرامج الموهوبين. وعندما يتعلق الأمر بمن يُرَى إليه ومن لا يُرَى، يهم في شكل كبير من هم الزعماء وحراس البوابة.

3. إدراك أن المساءلة ضرورية Recognize that accountability is necessary.
في الذكاء الاصطناعي وتعلم الآلة، تتعرف الآلة عن طريق دالة الخسارة loss function — وهي طريقة لتقييم مدى جودة خوارزمية بحث معينة في نمذجة البيانات المعطاة. وإذا انحرفت التوقعات كثيراً عن النتائج الفعلية، تعاقب دالة الخسارة نظام التعلم وفق ذلك، فمن دون حافز موضوعي وواضح يسمح للنظام بمعرفة أدائه، لا توجد طريقة لمعرفة أدائه. وهذا هو جوهر مسؤولية الذكاء الاصطناعي.

وللمسؤولية Accountability أهمية كبرى عندما تزعم الشركات أنها تعمل لإصلاح مسائل التمثيل الناقص. فقد عرفت الشركات منذ فترة طويلة أن التنوع الجنسي والعرقي يؤثران في المحصلة النهائية. ويعرض تقرير تلو تقرير أن الشركات التي تتخلف في مجال التنوع الجنسي والعرقي بين القوى العاملة، والفرق الإدارية، والمسؤولين التنفيذيين، وقاعات مجالس الإدارة، من غير المرجح أن تحقق أرباحاً أعلى من المتوسط. وفي رأينا، يرتبط هذا بقول معروف في مجتمع الذكاء الاصطناعي والحوسبة: ”مدخلات ركيكة تؤدي إلى مخرجات ركيكة“.

والأمر الأكثر بساطة هو أن القيادة والقوة العاملة في أي مؤسسة إذا لم تعكس النطاق المتنوع من العملاء الذين تخدمهم، سيتبين في نهاية المطاف أن مخرجاتها دون المستوى المطلوب. ولأن خوارزميات التعلم تشكل جزءاً من أنظمة أكبر تتألف من تقنيات أخرى وأشخاص يعملون على إنشائها وتنفيذها، من الممكن أن يزحف التحيز إلى أي مكان في خط الأنابيب Pipeline. وإذا كان التنوع داخل خط أنابيب المؤسسة منخفضاً في أي وقت، تعرض المؤسسة نفسها إلى التحيزات – بما في ذلك التحيزات العميقة بالقدر الكافي، والتي من المحتمل أن تكون علنية بالقدر الكافي لكي يمكنها تقسيم العملاء وتؤدي في نهاية المطاف إلى تقادم وفشل. وقد يبقى بعض العملاء، لكن البعض الآخر سيرحل.

وعلى الرغم من أن الشركات تدعي أنها حاولت معالجة أزمة التنوع هذه، إلا أنه لم يحصل سوى تغيير بسيط. ومنذ عام 2014، عندما بدأت شركات التكنولوجيا الكبرى في نشر تقارير سنوية عن التنوع، لم يتجاوز عدد الشركات التي حققت تقدماً في مجال التنوع العرقي. وحقق البعض مكاسب صغيرة في التنوع بين الجنسين.

وركزت شركات التكنولوجيا على المشكلات المحددة والحلول المحددة. أو بعبارة أخرى، حرصت على إخماد الحرائق وعدم معالجة الأسباب الأساسية. ولكن لا يمكنكم فقط وضع ضمادة على جرح نازف عندما يحتاج الجرح إلى رباط ضاغط. يتعين على المؤسسات وأولئك الذين يرغبون حقاً في القيادة بهذا المجال أن يكفوا عن التركيز على مجال واحد فقط، ومنتج واحد، وجدال واحد. فالمشكلة الحقيقية منتشرة ومنهجية، وهي تتطلب حلولاً خلاقة ومساءلة حقيقية.

أيانا هوارد Ayanna Howard

أيانا هوارد Ayanna Howard

(@robotsmarts)
أستاذة كرسي ليندا جاي ومارك سي سميث Linda J. and Mark C. Smith ورئيسة مدرسة الحوسبة التفاعلية School of Interactive Computing في كلية الحوسبة College of Computing في معهد جورجيا للتكنولوجيا Georgia Institute of Technology. كذلك تعمل مديرة لمختبر أنظمة الأتمتة البشرية Human-Automation Systems Lab في مدرسة هندسة الكهرباء والحاسوب School of Electrical and Computer Engineering.

تشارلز إيسبيل Charles Isbell

تشارلز إيسبيل Charles Isbell

(@isbellhfh)
العميد وأستاذ كرسي جون بي إيملاي الابن John P. Imlay Jr. في كلية الحوسبة College of Computing في معهد جورجيا للتكنولوجيا Georgia Institute of Technology. للتعليق على هذا الموضوع:
اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى