أحد صفحات التقدم العلمي للنشر
اتخاذ القراراخترنا لك

ما يخسره البشر عندما نسمح للذكاء الاصطناعي باتخاذ القرار

لماذا يتعين عليكم أن تبدؤوا في القلق بشأن الذكاء الاصطناعي الآن.

مر أكثر من 50 سنة على هال HAL، الحاسوب الضار في فيلم 2001: ملحمة الفضاء 2001 A Space Odyssey:، الذي أثار ذعر الجمهور للمرة الأولى عندما انقلب على رواد الفضاء الذين كان من المفترض أن يحميهم. هذه اللحظة السينمائية ترصد ما لا يزال عديد منا يخافونه في الذكاء الاصطناعي: إنه قد يكتسب قوى بشرية خارقة ويخضعنا. لكن بدلاً من القلق بشأن كوابيس الخيال العلمي المستقبلية، يتعين علينا أن نفيق على سيناريو مزعج بالقدر نفسه، يتكشف أمام أعيننا: لقد أصبحنا على نحو متزايد، ومن دون أي تمعُّن من ناحيتنا، نتخلى عن سلطتنا في اتخاذ القرارات استناداً إلى حكمنا الخاص، بما في ذلك اقتناعاتنا الأخلاقية. وما نعتقد أنه ”صحيح“ Right يهدد بالتوقف عن كونه مسألة أخلاقية ليصبح ببساطة مسألة تتعلق بالنتيجة ”الصحيحة“ Correct للحسابات في الرياضيات.

يوماً بعد يوم تتخذ الحواسيب بالفعل عديداً من القرارات نيابة عنا، وعلى السطح، يبدو أنها تضطلع بعمل جيد. ففي مجال الأعمال، تنفذ أنظمة الذكاء الاصطناعي المعاملات المالية، وتساعد إدارات الموارد البشرية على تقييم المتقدمين إلى وظائف. وفي حياتنا الخاصة نعتمد على توصيات مخصصة عند التسوق عبر الإنترنت، ومراقبة صحتنا البدنية باستخدام أجهزة قابلة للارتداء، والعيش في منازل مجهزة بتكنولوجيات ”ذكية“ Smart تتحكم في الإضاءة ودرجة الحرارة وأنظمة الترفيه والأجهزة.

لكن من المؤسف أن إلقاء نظرة فاحصة على الكيفية التي نستخدم بها أنظمة الذكاء الاصطناعي حالياً يشير إلى أننا قد نكون مخطئين في افتراض أن القوة المتنامية في هذه الأنظمة هي في أغلبها لأغراض خيِّرة Good. وفي حين لا يزال القِسم الأعظم من الانتقادات الحالية للذكاء الاصطناعي محاطاً بالعوالم الخبيثة للخيال العلمي، فإن طريقة استخدامه تزداد خطورةً. وليس الأمر سيئاً لأن غوغل Google وألكسا Alexa يتحولان إلى أشرار، بل لأننا نعتمد الآن على الآلات لاتخاذ قرارات نيابة عنا، ومن ثم تحل- بنحوٍ متزايد- الحسابات الموجهة بالبيانات محل الحكم البشري. وهذا من شأنه أن يهدد بتغيير أخلاقياتنا بطرق جوهرية، قد لا يمكن قلبها، كما جادلنا في ورقتنا الأخيرة المنشورة في التعلم والتعليم في أكاديمية التعليم الإداري Academy of Management Learning & Education (الذي استندنا إليها في كتابة هذا المقال).1C. Moser, F. den Hond, and D. Lindebaum, “Morality in the Age of Artificially Intelligent Algorithms,” Academy of Management Learning & Education, April 7, 2021, https://journals.aom.org.

حين نوظف الحكم تأخذ قراراتنا في الاعتبار السياقَ الاجتماعي والتاريخي والنتائج المختلفة المحتملة، بما يستهدف- كما كتب الفيلسوف جون ديوي John Dewey- ”العزم على إتمام موقف غير مكتمل“.2J. Dewey, “Essays in Experimental Logic” (Chicago: University of Chicago Press, 1916), 362. فالحكم لا يعتمد على التبرير المنطقي فحسب، بل أيضاً، والأهم من ذلك، على قدرات مثل الخيال والتفكير والتفحص والتقييم والتعاطف. ولذلك فإن له بعداً أخلاقياً جوهرياً.

وعلى النقيض من ذلك تُصدر أنظمة الخوارزميات Algorithmic systems قرارات بعد معالجة البيانات، وذلك من خلال تراكم نتائج الحساب والحوسبة والعقلانية المستندة إلى قواعد– ما نسميه التقديرات الحسابية Reckoning.3B.C. Smith, “ The Promise of Artificial Intelligence: Reckoning and Judgment” (Cambridge, Massachusetts: MIT Press, 2019). والمشكلة هي أن الإجابات التي تعطيها هذه الأنظمة، بعد معالجة بياناتنا، مقيدة بالأهداف الضيقة التي صُمِّمت من أجلها، من دون اعتبار للعواقب الضارة المحتملة التي تنتهك معاييرنا الأخلاقية للعدالة Justice والإنصاف Fairness. وشهدنا ذلك في التحليلات التوقعية الميالة إلى الخطأ والمتحيزة عرقياً التي استخدمها عديد من القضاة الأمريكيين في إصدار الأحكام.4K.B. Forrest, “When Machines Can Be Judge, Jury, and Executioner: Justice in the Age of Artificial Intelligence” (Singapore: World Scientific Publishing, 2021). وفي هولندا، وعانت نحو 40,000 أسرة بنحو غير منصف من الأضرار المالية القاسية- وغيرها من الأضرار- الناجمة عن اعتماد السلطات الضريبية على نظام معيب للذكاء الاصطناعي لتحديد الاحتيال المحتمل في برنامج للإعفاء الضريبي خاص بفوائد الأطفال. والفضيحة التي تلت ذلك أجبرت الحكومة الهولندية على الاستقالة في يناير 2021.

انتبه للفجوة

لا ينبغي لهذا النوع من العواقب غير المقصودة أن يُدهشنا. فوفقاً لأحد التعريفات: الخوارزميات ليست أكثر من ”وصفات دقيقة تحدد التسلسل الدقيق للخطوات المطلوبة لحل مشكلة ما“.5J. MacCormick, “Nine Algorithms That Changed the Future” (Princeton, New Jersey: Princeton University Press, 2012), 3. والدقة والسرعة اللتان تُحَل بهما المشكلة تجعلان قبول إجابة الخوارزمية أمراً سهلاً، وبصورة خاصة عندما نتفاعل مع مزيد ومزيد من هذه الأنظمة المصمَّمة للتعلم، ومن ثم العمل بنحو مستقل.

لكن كما تشير الأمثلة أعلاه، قد تكون هذه الفجوة بين توقعاتنا المتضخمة بما يمكن أن تضطلع به الخوارزمية وقدراتها الفعلية فجوةً خطيرة. وعلى الرغم من أن الحواسيب يمكنها الآن التعلم بنحو مستقل، فهي تستخلص استدلالات من المحفزات البيئية المحيطة، ثم تعمل على ما تعلمته، فإن لها حدوداً. والتفسير الشائع لهذه الحدود باعتبارها ”تحيزاً“ Bias تفوته الفكرة، ذلك لأن وصف هذا التحيز يعني ضمنياً أن ”إمكانية التغلب على القصور“ في حسابات الذكاء الاصطناعي قد تصبح في نهاية المطاف قادرة على إزالة التحيز، وتقديم تمثيل كامل وصادق للواقع. لكن الحال ليست كذلك. تكمن المشكلة في أعماق أكبر.

تستند قرارات أنظمة الذكاء الاصطناعي إلى ما أطلق عليه الفيلسوف فيليم فلوسر Vilém Flusser ”الصور التقنية“ Technical images: الأنماط المجردة من البكسلات Pixels أو البايتات Bytes– الصور الرقمية لـ“العالم” World التي دُرِّب الحاسوب على إنتاجها ومعالجتها. والصورة التقنية هي التحويل المُحوسب Computed للبيانات المُرقمَنة Digitalized data حول بعض العناصر أو الأفكار، وهي بذلك تمثيل Representation للعالم. ومع ذلك، وكما هي الحال مع أي تمثيل، فإنه تمثيل غير مكتمل؛ هو يجعل ما هو مستمر Continuous منفصلاً Discrete، ويجعل ما هو متحول (متغير) Fluid ثابتاً Static، ومن ثم يجب أن يتعلم المرء كيفية استخدامه بذكاء. مثلما أن خريطة ثنائية الأبعاد ما هي إلا تمثيل انتقائي، بل ربما تمثيل خاطئ. فخلال إعداد الخريطة، تُقلَّل أبعاد الواقع المتعدد الأبعاد بإجباره على أن يلائم سطحاً ثنائي الأبعاد، بعدد محدود من الألوان والرموز. وكثير منا لا يزالون يعرفون كيفية استخدام الخريطة. المشكلة في أنظمة الذكاء الاصطناعي هي أننا لا نستطيع أن نفهم بنحو كامل كيف ”ترسم“ Draws الآلة صورها التقنية– ما تؤكد عليه، وما تستثنيه، وكيف تربط أجزاء المعلومات في التحولات نحو الصورة التقنية. وكما لاحظ الخبير الإحصائي جورج بوكس George Box قائلاً ذات يوم: ”النماذج Models كلها خاطئة، لكن بعضها مفيد“. ونضيف: ”إذا لم نكن نعرف كيف قد يكون النموذج خاطئاً، فهو ليس عديم الفائدة فحسب، بل إن استخدامه قد يكون خطيراً“. هذا لأن التقديرات الحسابية المستندة Reckoning إلى الصورة التقنية لا يستطيع أبداً أن يكشف عن الحقيقة الكاملة، وذلك ببساطة لأن هذا ليس ما صُنِع من أجله.

عبرَ عملية التقديرات الحسابية تتخذ الآلات قرارات بمسحة من الدقة ومن الصواب غير القابل للتشكيك. ويتمثل الخطر في أن ينتهي المطاف بنا إلى تشكيل أنفسنا ومجتمعنا استناداً إلى الصورة التي شكلتها التكنولوجيا عنا.

عبرَ عملية التقديرات الحسابية تتخذ الآلات قرارات– تستند أساساً إلى الصور التقنية– بمسحة من الدقة ومن الصواب غير القابل للتشكيك. ويتمثل الخطر في أن ينتهي المطاف بنا إلى تشكيل أنفسنا ومجتمعنا استناداً إلى الصورة التي شكلتها التكنولوجيا عنا. ولو أفرطنا في الاعتماد على هذه الخوارزميات، فسنخاطر بأن نخطئ في قراءة الخريطة باعتبارها التضاريس نفسها، كما فعل السائقون السيئو الحظ في مرسيليا بفرنسا الذين تركوا النظام العالمي لتحديد المواقع (GPS) يوجههم مباشرة من شارع محاذٍ للميناء ومباشرة إلى السقوط في البحر.

فلنتأملْ هنا، مثلاً، الطريقة التي يستخدم بها الأشخاص الأجهزةَ الإلكترونية القابلة للارتداء التي تراقب وظائف الجسم، بما في ذلك معدل النبض والخطوات المتخذة ودرجة الحرارة وساعات النوم، كمؤشرات للصحة. بدلاً من أن تسألوا أنفسكم كيف تشعرون، يمكنكم التحقق من جهازكم القابل للارتداء. قد يخبركم بأنكم يجب أن تشعروا بالقلق لأنكم لا تتخذون الحد الأدنى من الخطوات الموصَى بها بوجه عام لحياة صحية– وهو مستهدف Target قد يكون منطقياً بالنسبة إلى عديد من الأشخاص، لكنه قد يأتي بنتائج عكسية إذا كانت جودة الهواء Air quality منخفضة أو إذا كانت الرئتان ضعيفتين.

فكيف لنا أن نقتنص الفوائد التي لا يمكن إنكارها والتي قد تترتب على استخدام هذه الآلات الذكية من دون أن نخطئ في تفسير تجريد الآلة باعتبارها القصة بالكامل، ومن دون أن نفوِّض إلى الذكاء الاصطناعي القراراتِ المعقدةَ وذات التبعات التي ينبغي أن يتخذها البشر؟

المشكلة ليست في الآلات بقدر ما هي فينا نحن أنفسنا. فثقتنا بالذكاء الاصطناعي تقودنا إلى الخلط بين التقديرات الحسابية– اتخاذ القرار استناداً إلى تلخيص أنواع مختلفة من البيانات والصور التقنية– والحكم Judgment. فالثقة المفرطة بالآلة– وبقدرتنا على برمجة تلك الآلة والتحكم فيها– يمكن أن تنتج أوضاعاً لا يمكن الدفاع عنها، وربما غير قابلة للقلب حتى. فمن خلال الإجابات الواثقة للذكاء الاصطناعي، فإننا نسعى إلى الحصول على يقين كذلك اليقين الذي سعى إليه أسلافنا- من دون جدوى- في الكهانة باستخدام الأحشاء، وقراءة الحظ ببطاقات التاروت، والتنجيم بالنجوم فوقَنا.

ويعتقد بعض المراقبين– من علماء ومديرين وواضعي سياسات– أن اتباع مبادئ تطوير الذكاء الاصطناعي المسؤولة هو نهج صحيح وفاعل لغرس الاعتبارات الأخلاقية في أنظمة الذكاء الاصطناعي. ونحن نتفق معهم عندما يجادلون بأن الذكاء الاصطناعي، كمنتج ثقافي، من المحتم أن يعكس وجهات نظر الأشخاص الذين كُلفوا بوضع الخوارزمية، وكتبوا كوداتها، ثم استخدموا البرنامج. ونحن نختلف معهم عندما يقولون إن الاهتمام الدقيق بالمشروع ككل وبرمجته هو كل ما يلزم للوصول إلى نتائج إيجابية في الأغلب. والأصوات الانتقادية فيما يتعلق بقدرتنا على غرس الأخلاق في الذكاء الاصطناعي آخذة في التزايد، إذ تطرح السؤال الأساسي المتعلق بما اذا كان في إمكاننا أن “نُعلِّم” الأخلاقَ لأنظمة الذكاء الاصطناعي في المقام الأول. وبالعودة إلى جذور الذكاء الاصطناعي، ينبغي أن ندرك أن أسس الحكم والتقديرات الحسابية ذاتها مختلفة ولا يمكن التوفيق بينها. وهذا يعني أن أنظمة الذكاء الاصطناعي لن تتمكن أبداً من الحكم، بل فقط إجراءت التقديرات الحسابية. وعلى هذا تعني أي محاولة لضخ الأخلاق في الذكاء الاصطناعي أن الأخلاق ستُلجَم وستُشوَّه وتُبسَّط حتى تتناسب مع خصائص التقديرات الحسابية للذكاء الاصطناعي.

أولئك الذين يؤمنون بالذكاء الاصطناعي الأخلاقي يعتبرون التكنولوجيا أداة، على قدم المساواة مع الأدوات الأخرى التي هي في الأساس امتدادات للجسم البشري، مثل العدسات (لتحسين رؤية العين)، أو الملاعق ومفكات البراغي (لتحسين براعة اليدين). لكننا مشككون في ذلك. ففي رأينا، كما هي الحال مع الأجهزة القابلة للارتداء، من الأهمية بمكان أن ننظر إلى المستخدم باعتباره جزءاً من الأداة: يجب أن نفكر بجدية في كيفية تشكيل الخوارزميات إيانا. وإذا كانت الاستعاضة عن الحكم البشري بالتقديرات الحسابية الموجهة بالبيانات شيئاً يجب توخي الحذر الشديد بشأنه، فاتباع الخطاب الذي يسعى إلى حشد المساندة لتطوير الذكاء الاصطناعي المسؤول لن يساعدنا على كسر هذا الاستبدال. ماذا يمكننا أن نفعل؟

دعوة إلى العمل (واللاعمل)

نحن نرى طريقين للمضي قدماً.

أولاً، نريد أن ندعو إلى اللاعمل Inaction: يتعين علينا أن نكف عن محاولة أتمتة Automate كل ما يمكن أتمتته لمجرد أن ذلك ممكن من الناحية التقنية. هذا الاتجاه هو ما يصفه يفغيني موروزوف Evgeny Morozov باسم الحلولية التكنولوجية Technological solutionism: إيجاد حلول للمشكلات التي هي ليست بمشكلات حقيقية على الإطلاق.6E. Morozov, “To Save Everything, Click Here: The Folly of Technological Solutionism” (New York: PublicAffairs, 2013). وإذ يفتنه وعد التحسين الأبدي، تحد الحلولية التكنولوجية من قدرتنا على التفكير بعمق حول ماذا ومتى وكيف ولماذا نستخدم أداة معينة.

ثانياً، ندعو أيضاً إلى العمل: Action كمجتمعٍ نحتاج إلى تعلم ما الذكاء الاصطناعي حقاً وكيفية العمل معه. وعلى وجه التحديد، نحتاج إلى تعلم كيفية فهم صوره التقنية واستخدامها، تماماً كما كنا في حاجة إلى تعلم كيفية العمل مع النماذج والخرائط– ليس فقط بالمعنى العام المجرد والمعمول به، بل أيضاً لكل مشروع بعينه حيثما يتحقق تطويره.

في غياب اليقظة والشك، قد نفوِّت اللحظة التي يتحول فيها إطارنا لاتخاذ القرار من الحكم إلى التقديرات الحسابية. وهذا يعني أننا سنسلم قدرتنا على اتخاذ القرارات الأخلاقية اللازمة إلى التقديرات الحسابية للآلة.

وفي الممارسة العملية، يعني هذا أنه ينبغي للمديرين أن يحكموا على أساس كل حالة على حدة فيما إذا كانوا يستخدمون الذكاء الاصطناعي وكيف يستخدمونه ولماذا يستخدمونه. فتجنُّب التطبيقات الشاملة للتكنولوجيا يعني التعامل بجدية مع حدود الذكاء الاصطناعي. مثلاً في حين تكتسب الخوارزميات قوة توقعية أكبر عندما تُغذَّى بمزيد من البيانات، ستفترض دوماً نموذجاً ثابتاً للمجتمع، عندما يتغير الوقت والسياق في واقع الأمر. وبمجرد أن يرى المديرون أن الذكاء الاصطناعي أداة مفيدة لمشروع معين، نرى ميزة أساسية في تطوير المديرين لموقف من اليقظة والشك والحفاظ عليه. والسبب هو أننا، في غياب اليقظة والشك، قد نفوِّت اللحظة التي يتحول فيها إطارنا لاتخاذ القرار من الحكم إلى التقديرات الحسابية. وهذا يعني أننا سنسلم قدرتنا على اتخاذ القرارات الأخلاقية اللازمة إلى التقديرات الحسابية للآلة. ونظراً إلى التقدم السريع الذي أحرزه الذكاء الاصطناعي، لا يتاح لنا كثير من الوقت للعمل. يتعين علينا جميعاً أن نتعرف على كيفية اتخاذ القرارات وفق حكمنا الخاص بدلاً من السماح لأنفسنا بالتأكد الكاذب من التقديرات الحسابية الخوارزمية.

كريستين موسر Christine Moser

كريستين موسر Christine Moser

(tineadam@) أستاذة مشاركة في النظرية المؤسسية في جامعة فريجي أمستردام Vrije Universiteit Amsterdam بهولندا.

فرانك دين هوند Frank den Hond

فرانك دين هوند Frank den Hond

أستاذ كرسي إهرنروت في الإدارة والتنظيم Ehrnrooth Professor in Management and Organisation في مدرسة هانكين للاقتصاد Hanken School of Economics بفنلندا، وينتسب إلى جامعة فريجي أمستردام.

ديرك ليندباوم Dirk Lindebaum

ديرك ليندباوم Dirk Lindebaum

أستاذ أقدم في التنظيم والإدارة في مدرسة غرينوبل للإدارة Grenoble Ecole de Management. للتعليق على هذا الموضوع: https://sloanreview.mit.edu/x/63307.

المراجع

المراجع
1 C. Moser, F. den Hond, and D. Lindebaum, “Morality in the Age of Artificially Intelligent Algorithms,” Academy of Management Learning & Education, April 7, 2021, https://journals.aom.org.
2 J. Dewey, “Essays in Experimental Logic” (Chicago: University of Chicago Press, 1916), 362.
3 B.C. Smith, “ The Promise of Artificial Intelligence: Reckoning and Judgment” (Cambridge, Massachusetts: MIT Press, 2019).
4 K.B. Forrest, “When Machines Can Be Judge, Jury, and Executioner: Justice in the Age of Artificial Intelligence” (Singapore: World Scientific Publishing, 2021).
5 J. MacCormick, “Nine Algorithms That Changed the Future” (Princeton, New Jersey: Princeton University Press, 2012), 3.
6 E. Morozov, “To Save Everything, Click Here: The Folly of Technological Solutionism” (New York: PublicAffairs, 2013).
اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى