أحد صفحات التقدم العلمي للنشر
أعمالذكاء اصطناعي

الذكاء الاصطناعي يُخرِج أسوأ ما فينا وأفضله

ليزا بوريل Lisa Burrel

لن أنسى شيئاً قاله عالم النفس دانيال كانيمان Daniel Kahneman قبل سنتين في مؤتمر حول التحاليل الرقمية للأفراد People analytics. كانت الكلمة الرئيسية تتعلق إلى حد كبير بكيفية حد الخوارزمياتِ في «الضجيج» (أي العوامل العشوائية وغير ذات الصلة التي تحجب حكمنا) عندما نقيّم المرشحين للوظائف ونحاول توقع أداء الموظفين. وفي منتصف الطريق تقريباً أدلى كانيمان بتعليق سريع كاد يكون مرتجلاً لفت انتباهي: قال إنه «قلق جدا» من الإمكانات الخبيثة للذكاء الاصطناعي، على الرغم من إمكاناته الخيرة الكبيرة. فكلما أصبح الذكاء الاصطناعي أفضل في اتخاذ القرارات، قلّت حاجتنا إلى حكم بشري – وهذا، كما اقترح، سيهدد هيكل السلطة في المؤسسات. وهذا لن يعجب القادة، لذلك سيقاومون تبني التكنولوجيا عند اتخاذ أكبر قراراتهم وأكثرها أهمية.

وكان هذا صحيحاً عندما قال كانيمان قوله، ولا يزال كذلك. وهو قول يتسق مع الكفاح البشري المستمر للحفاظ على التحكّم في مواجهة التقدم التكنولوجي، على الرغم من أنه ليس واحدا من العواقب غير المقصودة التي نفكر فيها عادة بخصوص تطبيق الذكاء الاصطناعي في مكان العمل. فنحن نميل إلى التركيز على المخاطر الأخرى – تضخيم التحيزات المعرفية، وتزاحم سبل العيش، وزعزعة الأعمال Disrupting businesses. وتُعتبَر هذه المخاوف أكثر من مبررة، لكن ربما كنا قصيري النظر قليلاً وأغفلنا شيئاً خطيراً بالقدر نفسه مثل الاتكال أكثر مما ينبغي على التكنولوجيا أو السماح لها بالانفلات: أي الفشل في جني منافعها من خلال رغبة عميقة، ومدمرة ذاتياً في شكل متناقض، في الاستمرار باتخاذ القرارات والحفاظ على مكانتنا.

إنها فكرة مقلقة. لكن موضوعين في هذا العدد من إم آي تي سلون مانجمنت ريفيو MIT Sloan Management Review [وغيرهما How AI can amplify human competencies نشرناها فيما سبق] يقدمان تذكيرات مفيدة بوجود سبب للتفاؤل أيضاً. فبقدر ما نحرص على الاحتفاظ بالسلطة وامتيازاتها، نرى أنفسنا أيضاً منصفين، ونريد أن نرتقي إلى تلك الصورة الذاتية. وبدأ الذكاء الاصطناعي بمساعدتنا في هذا الصدد. فكما جادل جوش بيرسين Josh Bersin وتوماس تشامورو – بريموزيتش Tomas Chamorro-Premuzic بوجود «طرق جديدة لقياس الموهبة والإمكانية» Ways to gauge talent and potential – وكما قال كانيمان نفسه في المؤتمر – يمكن للأدوات الممكّنة بالذكاء الاصطناعي أن تقلل إلى حد كبير من دور التحيز في اتخاذ قرارات التوظيف عن طريق الفرز بحثاً عن الصفات التي تؤثر في الأداء وتجاهل تلك التي لا تفعل ذلك، مثل تشابه مظهر الموظفين أو كلامهم مع مظهرنا وكلامنا. وفي «استخدام الذكاء الاصطناعي لتعزيز التنوع» Using artificial intelligence to promote diversity، يحضنا بول دوغيرتي Paul Daugherty، وإتش جيمس ويلسون H. James Wilson، ورومان تشودري Rumman Chowdhury، أيضاً، على أن نلتزم بمعيار أعلى من معايير السلوك التنظيمي. كما يدعون مطوري أنظمة الذكاء الاصطناعي إلى تصميم وتدريب وتحسين تطبيقات «تتجاهل البيانات حول العرق والجنوسة (النوع الاجتماعي)، وغيرهما من الخصائص غير ذات الصلة بالقرارات قيد النظر.»

وعلى الرغم من أن هذه المقالات تُقرّ بوجود مجال واسع لتأكيد غرائزنا الأكثر قتامة لنفسها، فإنها تقترح طرقاً تُخرجنا إلى النور – وهو أمر يبدو بناءً.

ليزا بوريل Lisa Burrel

ليزا بوريل Lisa Burrel

مديرة التحرير في إم آي تي سلون مانجمنت ريفيو. وهي تغرد على @lburrell0718

اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى