أحد صفحات التقدم العلمي للنشر
أعمالبحثذكاء اصطناعيمهارات

الذكاء الاصطناعي يستطيع مساعدتنا على العيش بطريقة أكثر استهدافاً

نحتاج إلى القليل من الاحتكاك في حياتنا لإطلاق التأمل والوعي الذاتي والسلوك المسؤول

جوليان فريدلاند

بينما أبحث عبر الإنترنت عن هدية لأمي، وأنظر في الوسائد الصغيرة المطرزة بالكلمات، وأردية الحمام الفخمة، وخيارات أخرى، وفي نهاية المطاف أُفضِّل خياراً واحداً على الخيارات الأخرى، من اتخذ القرار بالتحديد؟ أنا؟ أو الخوارزمية المصممة لتقدم لي أكثر الخيارات «ملاءمة» استناداً إلى مجموعة كبيرة من البيانات التي لا يمكنني معالجتها بنفسي مطلقاً؟ وإذا انتهى الأمر بأمي بأن كرهت حقيبة نهاية الأسبوع المطرزة بالأزهار، فهذا معناه أنني «اخترت»، فهل هذا خطِئي؟ تصبح الإجابة صعبة على نحو متزايد؛ لأن ترك الذكاء الاصطناعي يفكر بدلاً منا يوفر علينا عناء القيام بذلك بأنفسنا وتحمل مسؤولية العواقب.

فالذكاء الاصطناعي أداةٌ قوية جدا قد تساعدنا على العيش والعمل بشكل أفضل من خلال معالجة كميات ضخمة من المعلومات. وهو يجنبنا الاضطرار إلى الخضوع للعديد من الإزعاجات المملة، التي تستغرق وقتاً طويلاً، وتثير الأعصاب. لكن المشكلة تكمن في أن إزعاجاً كهذا يؤدي أيضاً وظيفة رئيسية على صعيد التكيف: فهو يساعدنا على تعلم ضبط سلوكنا إزاء بعضنا بعضاً وإزاء العالم من حولنا. مثلاً، تجبرنا المشاركة مباشرةً مع أحد بائعي البقالة على مواجهة إنسانيته، و(مثاليا) أن يذكّرنا التفاعل بعدم النزق لأن الطابور لا يتحرك بالسرعة التي نرغب فيها. ومن خلال الأخذ والعطاء في لقاءات كهذه، نتعلم أن نخفف من اندفاعاتنا من خلال ممارسة التعاطف والتحكم الذاتي. وتعمل تفاعلاتنا كآلية تحقق أخلاقية دائمة التطور.

وبالمثل، فإن تفاعلاتنا داخل العالم الأوسع للأشياء المادية تجبرنا على التكيف مع بيئات جديدة. فالمشي أو ركوب الدراجة أو القيادة في مدينة مزدحمة يعلمنا كيفية التعامل مع العقبات غير المتوقعة، مثل اختلاف أحوال الطرق والطقس. وفي مناسبات لا حصر لها كل يوم، يسعى كل منا إلى تسويةٍ مثلى بين تشكيل أنفسنا لنناسب العالم وتشكيل العالم ليناسبنا.1R. Wollheim, The Thread of Life (New Haven, CT: Yale University Press, 1984). ودفعنا هذا النوع من التكيف إلى التأمل الذاتي ومكننا من الاعتبارات والتطلعات الأخلاقية.

ويخرج اعتمادنا المتزايد بسرعة على الذكاء الاصطناعي تفاعلات كهذه من أيامنا. فالتواصل السلس الذي يميل الذكاء الاصطناعي إلى نشره قد يزيد من المسافة المعرفية والعاطفية، ومن ثمَّ يؤدي إلى تراخي مرونتنا التكيفية وضمور فضائلنا الأخلاقية بفعل الإهمال.2M.J. Sandel, “The Case Against Perfection: What’s Wrong With Designer Children, Bionic Athletes, and Genetic Engineering,” Atlantic Monthly, April 2004, 1-11; and S. Vallor, Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting (Oxford, U.K.: Oxford University Press, 2016). فالاعتماد على الذكاء الاصطناعي لاختيار الهدايا للأصدقاء والعائلة، مثلاً، يعفينا من العمل العاطفي المتمثّل بالتفكير في احتياجاتهم ورغباتهم خلال تفاعلاتنا العادية معهم من أجل اختيار هدية ملائمة حقّاً. ويتضمن العديد من الاتجاهات الجارية بالفعل تفريغ العمل المعرفي والعاطفي والأخلاقي لبرمجيات الذكاء الاصطناعي في عدد لا يُعَد ولا يُحصَى من السياقات الاجتماعية والمدنية والشخصية والمهنية.3B. Frischmann and E. Selinger, Re-Engineering Humanity (Cambridge, U.K.: Cambridge University Press, 2018). وتدريجيّاً، قد نفقد الميل والقدرة على المشاركة في فكر تأملي نقدي، ما يجعلنا أكثر هشاشة معرفيّاً وعاطفيّاً ومن ثمَّ أكثر قلقاً4G. Lukianoff and J. Haidt, The Coddling of the American Mind: How Good Intentions and Bad Ideas Are Setting Up a Generation for Failure (New York: Penguin Random House, 2018). وعرضة إلى تلاعب الأخبار الكاذبة والإعلانات الخادعة والخطابة السياسية.

سؤال أساسي
كيف نصمم آلات ذكية بما يكفي لمنعنا من أن نصبح مثل الآلات؟
* بالنظر إلى أننا «نسند خارجيّاً» ما لا يُعَد ولا يُحصَى من المهام إلى منصات مدعومة بالذكاء الاصطناعي، فقد نصبح أقل تأملاً ونشعر بمسؤولية أقل عن النتائج.
* يُعَد الوعي الذاتي الأخلاقي قوة دفع قوية قد تساعد على استعادة التأمل الذاتي النقدي والوكالة وفهم للمساءلة.
* يستطيع مطورو الذكاء الاصطناعي إدراج مطالبة بتعزيز الوعي الذاتي الأخلاقي في مجالات تتراوح بين الصحة والرفاهية والوسائط والمشاركة المدنية.

وفي هذه المقالة، أنظر في السمات الشاملة لهذه المشكلة وأقدم إطاراً لمساعدة مصممي الذكاء الاصطناعي على معالجتها، من خلال تحسينات نظامية في الهواتف الذكية وغيرها من المنتجات والخدمات في السوق المزدهر لإنترنت الأشياء. وتساعد الإطارَ فكرتان: نظرية عالم النفس دانيال كانيمان Daniel Kahneman عن العملية المزدوجة المعرفية Cognitive dual process،5D. Kahneman, Thinking, Fast and Slow (New York: Farrar, Straus and Giroux, 2011). ونظرية الوعي الذاتي الأخلاقي Moral self-awareness theory، والإطار نموذج من أربعة مستويات للهوية الأخلاقية طورتُه مع بنجامين إم. كول Benjamin M. Cole، الأستاذ في كلية غابيلي للأعمال Gabelli School of Business بجامعة فوردهام Fordham University.6J. Friedland and B.M. Cole, “From Homo-Economicus to Homo-Virtus: A System-Theoretic Model for Raising Moral Self-Awareness,” Journal of Business Ethics 155, no. 1 (March 2019): 191-205. (انظر: نظريات العقل في عالم الذكاء الاصطناعي).

عندما تؤدي الراحة إلى الانفصال

تتمثّل الميزة الأكثر جاذبية في تكنولوجيا الذكاء الاصطناعي في وعدها بالتعامل مع الجوانب المملة للحياة، ومن ثمَّ زيادة قدر الوقت والانتباه الذي يمكن لكل منا تكريسه للأنشطة التي نعتبرها أكثر منفعة. وبالطبع، في كل مرة يحدث فيها هذا النوع من الإسناد الخارجي، نتنازل عن درجة من التحكم. ويعزز التعايش مع هذه المفاضلات السلوكيات المعتادة الجديدة التي تستلزم قدراً من الانفصال: عن بعضنا بعضاً، وعن العالم المادي، وحتى عن أنفسنا. وذلك لأننا في كل مرة نفوّض فيها درجة من التحكم إلى نظام الذكاء الاصطناعي، نستثمر أيضاً درجة من الثقة في هذا النظام. وعند القيام بذلك سننتقل في الأغلب من الاعتماد على ما يسميه كانيمان عقلنا التأملي Reflective Mind (واتخاذ القرارات التداولية Deliberative Decision-Making) إلى عقلنا المستقل Autonomous Mind (وردود فعله التلقائية التي ترشد القرارات). وهذا يسهّل إكمال المهمات الروتينية. لكن تكرار هذه العملية ينشئ خطراً يتمثل في أن تصبح تصرفاتنا تلقائية بشكل متزايد وأقل تأملاً عموما؛ ما يؤدي إلى ستة أشكال من الانفصال:7Brett Frischmann and Evan Selinger describe the six forms of disengagement in Re-Engineering Humanity.

1. زيادة السلبية. بالنظر إلى أننا نقبل المساعدة لإكمال مهمة ما، نحتاج إلى جهد أقل لتنفيذها. وقد نصبح متفرجين بدلاً من مشاركين نشطين. ومن الأمثلة على ذلك أنظمة الذكاء الاصطناعي التي تستخدمها نتفليكس Netflix وأمازون برايم Amazon Prime وفيسبوك Facebook لتحديد خيارات الترفيه والأخبار مسبقاً. وعندما ندع هذه الأنظمة تحدِّد خياراتنا، نادراً ما نواجه وجهات نظر قد تتحدى تصوراتنا المسبقة وتحيزاتنا. وتدريجياً، قد نكون أقل استعداداً لبذل الجهد المطلوب للتفكير بشكل عميق ونقدي، ومن ثمَّ فصل الذاكرة البعيدة الأجل.8N. Carr, The Glass Cage: How Our Computers Are Changing Us (New York: W.W. Norton & Co., 2015).

2. الانفصال العاطفي. يؤدي انخفاض المشاركة إلى الانفصال العاطفي. ومن ثمَّ، قد تصبح أفعالنا غير صادقة أو خادعة. فكروا في مركز اتصال للعملاء، حيث يقدم نظام للذكاء الاصطناعي في مكتب للمساعدة أو سياق للمبيعات تدريباً قويّاً للوكلاء في الوقت الفعلي فيما هم يستجيبون للإشارات العاطفية للعملاء.9W. Knight, “Socially Sensitive AI Software Coaches Call-Center Workers,” MIT Technology Review, 2017, www.technologyreview.com. ويمكن لبرمجيات كهذه مصممة تصميماً مثالياً لتدريب المشغلين ليصبحوا أكثر حساسية لمخاوف العملاء، أن يكون لها أثر عكسي؛ إذ تجعلنا معتادين بشكل متزايد على الإشارات العاطفية، فتقل ممارستنا للتنبه إلى هذه الإشارات وسيقل اهتمامنا لعمل ذلك.

3. انخفاض الوكالة. يقلل الانفصال من قدرتنا على اتخاذ قراراتنا الخاصة، إذ يقلل وعينا بالأفعال التي قد نقوم بها. فكروا في سيارة مؤتمتة مبرمجة مسبقاً لتقييم الأولويات الأخلاقية المتضادة أثناء حدوث تصادم، مثل الاصطدام بمشاة أو بمركبة أخرى. فقد تُعدَّل أسعار التأمين على السيارات وفق درجة ضبطنا لنظام القيادة المؤتمت لدمج مصالح الآخرين في الحساب.10P. Lin, “Why Ethics Matters for Autonomous Cars,” in M. Maurer, J.C. Gerdes, B. Lenz, et al., eds., Autonomous Driving: Technical, Legal, and Social Aspects (Berlin: Springer Open, 2016), 69-85. وسنتخلى عن الوكالة الذاتية لاتخاذ خيارنا الخاص عندما يحدث التصادم.

4. انخفاض المسؤولية. عند التخلي عن التحكم في عملية لصنع القرار، ربما نكون أقل عرضة إلى المساءلة عن النتائج – سواء كانت جيدة أم سيئة – لأن المسؤولية تتوزع عبر النظام المستند إلى الذكاء الاصطناعي بكامله، من التصميم إلى الإنجاز. تخيلوا تطبيقاً للحمية الغذائية يأمر بتسليم الأطعمة الجاهزة إليكم وفق خطة لإنقاص الوزن وضعها الذكاء الاصطناعي. فإذا فقدتم وزناً، فمن يستحق الفضل؟ وإذا لم تفعلوا، فمن المُلام؟11Sandel, “The Case Against Perfection.”

5. زيادة الجهل. يترجم الذكاء الاصطناعي رغباتنا إلى اختصارات خوارزمية أو عمليات ميكانيكية قد ينتهي بها الأمر إلى العمل بشكل مختلف عن العمل الذي نؤديه بأنفسنا. وبالطبع، قد يعوض ذلك عن أوجه القصور في معرفتنا – لكنه قد يعزز أيضاً أوجه القصور هذه. فالتطبيقات الملاحية الافتراضية مثل تلك التي تقدمها وايز Waze وغارمن Garmin وغيرهما، لا تتطلب منكم أن تعرفوا محيطكم. مثلاً، يمكنكم الاستمرار بالتجوال في موقع غير صحيح لم يحدّثه تطبيق الخرائط بعد، بسبب التحيز التفضيلي لنظام الذكاء الاصطناعي، بدلاً من العودة إلى تصوراتكم وأحكامكم المباشرة.12Carr, The Glass Cage. وفي وجهتكم المقصودة، ربما لا تكون لديكم أي فكرة عن الطريق الذي سلكتموه للوصول إلى هناك، أو كيفية العودة إلى المكان الذي انطلقتم منه من دون مساعدة من الذكاء الاصطناعي.

نظريات العقل في عالم الذكاء الاصطناعي 13Kahneman, Thinking, Fast and Slow. 14M.R. Calo, “Against Notice Skepticism in Privacy (and Elsewhere),” Notre Dame Law Review 87, no. 3 (October 2013): 1027-1072.

6. إلغاء المهارات. يمكن للاعتماد على وسيط لاستكمال المهام الروتينية أن يضعف كثيراً من المهارات التي نعتمد عليها للتفاعل مع العالم المادي من حولنا. فقد ننسى كيفية أداء المهام الأساسية أو نصبح أقل كفاءة في أدائها من دون مساعدة. فاستخدام تطبيقات الملاحة فقط يجعلنا ننسى كيفية استخدام خريطة تقليدية، أو في مستقبل من المركبات الذاتية القيادة، قد ننسى حتى كيفية القيادة من دون التطبيقات. وقد نفقد أيضاً الدافع إلى اكتساب مهارات جديدة، فنختار بدلاً من ذلك حلول الإسناد الخارجي إلى الأبد.

وتمثّل هذه الاتجاهات مجتمعة تحدياً أخلاقيّاً: فلأنها تضاعف الحالات التي نمر بها في الحياة في وضع الطيار الآلي، تستطيع تخفيف روابطنا الاجتماعية، ومفاقمة النزاعات، وعرقلة التقدم الأخلاقي عن طريق خنق الفكر النقدي الذاتي. وللتخفيف من هذه التهديدات، يجب على مصممي أنظمة الذكاء الاصطناعي أن يبنوا ميزات وواجهات تعيد إطلاق عقولنا المتأملة بشكل دوري.

يتطلب الأمر أكثر من «وكزات» لجعلنا نفكر

في الكتاب المؤثر، وكزة Nudge، للخبير في الاقتصاد السلوكي ريتشارد تالر Richard Thaler والباحث القانوني كاس سنشتاين Cass Sunstein، يجادل المؤلفان في أن الوكزات المعرفية قد تحفزنا على العمل باستخدام عوامل إطلاق تثير مشاعر مثل التعاطف أو المصلحة الذاتية.15R.H. Thaler and C.R. Sunstein, Nudge: Improving Decisions About Health, Wealth, and Happiness (New Haven, CT: Yale University Press, 2008). ومع الأسف، فإن لهذه الوكزات سلطة محدودة في الممارسة العملية لأنها تحفز فقط اندفاعات سلوكية ولا تشرك التأمل النقدي. وهذه هي الحال حتى عندما يتعلّق الأمر بالمخاطر الصحية الملحة. وفي دراسة شملت 1509 مريض أُصِيبوا بأزمات قلبية، لم تحسن الجهود الرامية إلى حض الأفراد على الالتزام بوصفات الأدوية (بما في ذلك الزجاجات الإلكترونية للحبوب وفرصة الحصول على مكافآت بقيمة خمسة دولارات أو 50 دولاراً في مقابل تجنيد الدعم من صديق أو عضو في الأسرة) تحسيناً واضحاً من احتمال تناول الناس دواءهم.16K.G. Volpp, A.B. Troxel, S.J. Mehta, et al., “Effect of Electronic Reminders, Financial Incentives, and Social Support on Outcomes After Myocardial Infarction: The HeartStrong Randomized Clinical Trial,” JAMA Internal Medicine 177, no. 8 (August 2017): 1093-1101.

ومن المرجح أن يحل تحفيز العقل التأملي مشكلة الانفصال ويخفف من مخاطر فقدان المهارات في عصر الذكاء الاصطناعي. فمن خلال إنشاء ما قد نسميه مطبات السرعة المعرفية التي تجبرنا على التأمل بالقرارات التي تستحق مزيداً من التأمل، يمكن لمطوري أنظمة الذكاء الاصطناعي إعادة إدخال الاحتكاك التفاعلي Interactive friction في التجارب التي يجرونها. لذلك، ومع اقتراب عيد ميلاد أمي، بدلاً من اقتراح عمليات شراء، قد يقترح نظام الذكاء الاصطناعي وقتاً مناسباً للاتصال بأمي أو زيارتها – وهذه فرصة لتعزيز العلاقة الشخصية وحتى للمساعدة على التوصل إلى هدية ملائمة (ومرغوبة).

وتكون التداعيات عميقة. فالجانب الأكثر إغراء للمنصات المدعومة بالذكاء الاصطناعي هو أنها تروج لما تصفه العالمة في أخلاقيات التكنولوجيا شانون فالور Shannon Vallor بأنه «تفاعلات من دون احتكاك تتجنب الملل والإحراج والنزاع والخوف وسوء الفهم والسخط والحميميات غير المريحة التي تنشأ في الأغلب عن التواصل التقليدي، ولاسيما اللقاءات وجهاً لوجه في الفضاء المادي».17Vallor, Technology and the Virtues, 161. وهنا، تشير فالور أساسا إلى تجنب المحادثات الحية، من خلال التواصل الاجتماعي. ولكنها قد تتحدث أيضاً عن تجنب مشقات الحياة العملية كلها، من قراءة خريطة وقيادة سيارة وتركيز المرء على محيطه إلى إعداد قائمة البقالة والتسوق والطبخ. وعلى الرغم من أن معظمنا لا تزال لديه تجارب احتكاكية كهذه، فإن المنصات المدعومة بالذكاء الاصطناعي تَعد بإرشاد انتباهنا في أي اتجاه من المرجح أن نجده مرضياً فورا؛ مما يقلل من فرص تعرضنا إلى الاحتكاك غير السار. ونتيجة لذلك، يتآكل انتباهنا الأخلاقي– القدرة على إعادة توجيه تركيزنا، وتأخير الإشباع، وتهدئة رغباتنا العاطفية، وكبح ردود أفعالنا غير المفهومة.

ونكون بحاجة إلى شيء للتصدي لهذا الاتجاه: وهو بنية اختيار الذكاء الاصطناعي المصممة للحفاظ على إجراءات صحية من الاحتكاك التفاعلي بيننا وبين العالم الأوسع.

كيف يعزز الاحتكاك الوعي الذاتي الأخلاقي

هناك قيمة لعالم من التفاعلات الممتلئة بالاحتكاك. مثلاً، تشير الأبحاث الجديدة حول التحكم الذاتي في مرحلة الطفولة إلى أن البيئات الثقافية18B. Lamm, H. Keller, J. Teiser, et al., “Waiting for the Second Treat: Developing Culture-Specific Modes of Self-Regulation,” Child Development 89, no. 3 (June 2018): e261-e277. والاجتماعية والاقتصادية19T.W. Watts, G.J. Duncan, and H. Quan, “Revisiting the Marshmallow Test: A Conceptual Replication Investigating Links Between Early Delay of Gratification and Later Outcomes,” Psychological Science 29, no. 7 (May 2018): 1159-1177. قد تؤدي دوراً أكبر بكثير من العوامل الوراثية في تطوير العزم والمثابرة اللذين يرتبطان ارتباطاً وثيقاً بالنجاح المهني في وقت لاحق من الحياة.20A. Duckworth and J.J. Gross, “Self-Control and Grit: Related but Separable Determinants of Success,” Current Directions in Psychological Science 23, no. 5 (October 2014): 319-325. وبمجرد تعلم التنقل في التفاعلات غير المعدة من أجل راحتنا، نستطيع تطوير التحكم التنفيذي بوعينا في شكل كامل.21Vallor, Technology and the Virtues, 163.

وتعزز تفاعلات كهذه الوعي الذاتي الأخلاقي. وبينما نعاني الاحتكاكَ مراراً وتكراراً، تتغير الطرق التي نستجيب بها لمختلف الحوافز، وتتطور الهوية الأخلاقية: نبدأ بالتفكير والشعور بشكل مختلف حول ما تقوله أفعالنا عن أنفسنا.22Friedland and Cole, “From Homo-Economicus to Homo-Virtus.”

وكرست الأدبيات النفسية الاجتماعية علاقة واضحة بين ما يُسمى الأهمية الذاتية للهوية الأخلاقية والفكر والعمل الأخلاقي،23K. Aquino and A. Reed II, “The Self-Importance of Moral Identity,” Journal of Personality and Social Psychology 83, no. 6 (December 2002): 1423-1440. وتشير الأدبيات الأوسع حول العقل المدني إلى أن الفخر هو الدافع الأخلاقي الأكثر فاعلية للسلوك المدني.24S. Bowles, The Moral Economy: Why Good Incentives Are No Substitute for Good Citizens (New Haven, CT: Yale University Press, 2016). وهناك دليل أيضاً على أن المستهلكين الأخلاقيين أكثر سعادة ولديهم نوايا أقوى لتكرار الشراء عندما تدفعهم صورهم الذاتية الأخلاقية أكثر منهم عندما تدفعهم عواطف مثل الشعور بالذنب والتعاطف.25K. Hwang and H. Kim, “Are Ethical Consumers Happy? Effects of Ethical Consumers’ Motivations Based on Empathy Versus Self-Orientation on Their Happiness,” Journal of Business Ethics 151, no. 2 (2018): 579-598.

ما علاقة هذا كله بالذكاء الاصطناعي؟ يمكن لمصممي أنظمة الذكاء الاصطناعي استخدام المستويات الأربعة للوعي الذاتي الأخلاقي الموصوف أدناه كدليل على تطوير التطبيقات التي تشجع على السلوك التأملي. ومن خلال إدراج دمج عوامل إطلاق الاحتكاك التفاعلي، يمكنهم حض المستخدمين على النظر في كيفية عكس تصرفاتهم لقيمهم الشخصية، ومساعدتهم على الصعود إلى مستويات أعلى من الوعي.

المستوى 1: التأمل الاجتماعي Social reflection. عند هذا المستوى، يعتمد الناس أساساً على الملاحظات السلبية التي يتلقونها من المراقبين لإدانتهم أو إشعارهم بالخزي من أجل تغيير سلوكهم. وأثبت الباحثون قوة الملاحظات السلبية في منع السلوك الأناني للشخص. مثلاً، في تجربة مأساة المشاعات Tragedy of the commons دفعهم المراقبون إلى أن يخفضوا من أنانيتهم بعد أن اعتبرهم الأفراد الآخرون، ممن بقيت لديهم مصادر أقل، مصدر خزي.26J. Sadowski, S.G. Spierre, E. Selinger, et al., “Intergroup Cooperation in Common Pool Resource Dilemmas,” Science and Engineering Ethics 21, no. 5 (October 2015): 1197-1215. وفي نهاية المطاف، أظهر جميع المشاركين تفضيلاً لتخفيض العوائد الفردية لصالح نتائج أبعد أجلاً تكون عادلة ومستدامة.

المستوى 2: التأمل الذاتي Self-reflection. عند هذا المستوى، بدلاً من الاعتماد على شكاوى الآخرين للاعتراف بالآثار السلبية لأفعالهم، تبدأ الأطراف الفاعلة بالعمل كمصدر للملاحظات الخاصة بها. ويحدث هذا عندما ترى نتائج سلوك الآخرين أو عندما تنظر في التداعيات الفورية لأفعالها. مثلاً، يكون الشخص الذي يلاحظ وجود غرفة تحتوي على فضلات مجروفة أقل ميلاً إلى رمي النفايات على الأرض بـ 2.5 ضعف مقارنةً به في غرفة ممتلئة بالنفايات.27R.B. Cialdini, C.A. Kallgren, and R.R. Reno, “A Focus Theory of Normative Conduct: A Theoretical Refinement and Re-Evaluation of the Role of Norms in Human Behavior,” Advances in Experimental Social Psychology 24 (December 1991): 20-234. وتزيد مراقبة النفايات المجروفة من ميل المراقب إلى الحفاظ على نظافة الغرفة.

المستوى 3: التأمل الذاتي الاستباقي Anticipatory self-reflection. عند هذا المستوى يبدأ الأفراد بتوقع النتائج السلبية المحتملة لأفعالهم، ويقومون بذلك باستقلال عن إشارات الآخرين. ويأتي هذا السلوك في الأغلب بعدما يكون التأمل الذاتي في السلوك السابق قد أدى إلى شعور داخلي بالذنب أو الخزي. فعند نقطة تحول مهمة في تجربة مأساة المشاعات المذكورة آنفا،28J. Sadowski, T.P. Seager, E. Selinger, et al., “An Experiential, Game-Theoretic Pedagogy for Sustainability Ethics,” Science and Engineering Ethics 19, no. 3 (September 2013): 1323-1339. سأل أحد المشاركين بصوت عالٍ، «هل نحن أشخاص سيئون؟» لم يكن هذا السؤال جهداً لإشعار الأعضاء الآخرين في المجموعة بالخزي بقدر ما كان محاولة لتوفيق التناقض بين الفعل السابق (لخدمة المصلحة الذاتية) والصورة الذاتية الأخلاقية الطموحة للمرء. وتمثّل هذه اللحظة التأملية خطوة مهمة، تكشف عن الالتزامات الأخلاقية للأفراد لتشكيل أنفسهم من أجل أن يناسبوا العالم وتطلعاتهم الخاصة.

المستوى 4: التأمل الذاتي الاستشرافي Proactive self-reflection. عند أعلى مستوى، يصبح الأفراد استشرافيين بشكل متزايد، مع الأخذ بالاعتبار الآثار السلبية والإيجابية. ويشاركون عمداً في الإجراءات المناسبة لتحقيق نتائج إيجابية. ويستوعبون الصورة الذاتية للبطل المحتمل بدلاً من الشرير المحتمل.29A. Gopaldas, “Marketplace Sentiments,” Journal of Consumer Research 41, no. 4 (Dec. 1, 2014): 995-1014. وفي أفضل الأحوال، تشكل هذه القرارات العادات، مما يزيد من احتمال أن يصبحوا من أولئك الذين يتطلعون إلى أن يكونوهم. وترتبط هذه الحالة الذهنية بتحقيق قدر أكبر من السعادة استناداً إلى التصور الذاتي للفرد.30Hwang and Kim, “Are Ethical Consumers Happy?”

فقط من خلال تعلم كيفية التنقل بين التفاعلات الممتلئة بالاحتكاك يمكننا أن نطور التحكم التنفيذي في وعينا تطويرا كاملا.

تحفيز العقل التأملي

في التفاعلات التقليدية وجهاً لوجه يقدم العالم المادي أو الاجتماعي الخارجي الاحتكاك اللازم لتحفيز العقل التأملي لتعديل سلوك الفرد نحو الأفضل. ولما كان الذكاء الاصطناعي يزيل الفرص الخاصة بتلك التفاعلات، فإن المطورين يحتاجون إلى أداة للاستفادة من الوعي الذاتي الأخلاقي لدى المستخدمين. ويمكن لإشعارات الإظهار Showing notices، وهي نوع من الإشعارات الغريزية التي يمكن أن تدرجها أنظمة الذكاء الاصطناعي لتشكيل عملية صنع القرار لدى المستخدمين، أن تكون بمثابة تلك الأداة وتعوّض فقدان تفاعلات الأخذ والعطاء في العالم الاجتماعي والمادي. (انظروا: نظريات العقل في عالم الذكاء الاصطناعي، لمزيد من التفاصيل حول الإشعارات الغريزية).

وتقدم إشعارات الإظهار للمستخدمين لقطات عن سلوكهم (عدد الخطوات المتخذة في يوم واحد، مثلاً، أو قدر الوقت المقضي في تصفح الإنترنت). ويمكنها تعزيز تطبيقات الذكاء الاصطناعي من خلال تشجيع المستخدمين على الانتقال من المستوى 1 و2 و3 للوعي الذاتي الأخلاقي، التي تدفع فيها في المقام الأول المشاعر السلبية مثل الشعور بالذنب والخزي السلوكيات الفردية، إلى المستوى 4، الذي تشجع فيه التطلعات الإيجابية الأفراد على التصرف، وهم مدركون أن خياراتهم قد تحدث فرقاً لأنفسهم والمجتمع. ويعزز تمكين المستخدمين من مشاركة تقدمهم في مسألة معينة مع آخرين في مجموعة اجتماعية إمكانات التطبيق.

من خلال تقديم «إشعارات الإظهار» – أي لقطات من سلوك المستخدمين – يمكن أن تشجع تطبيقات الذكاء الاصطناعي الأشخاص على التحرك نحو أعلى مستوى من الوعي الذاتي الأخلاقي، إذ تدفع التطلعات الإيجابية السلوك الفردي.

وبالنظر إلى أن الإنفاق العالمي على إنترنت الأشياء قد يصل وفق التوقعات الحالية إلى 1.4 تريليون دولار بحلول عام 2021، تقدم هذه الوظيفة فرصاً غنية للبحث والتطوير.31L. Columbus, “2017 Roundup of Internet of Things Forecasts,” Forbes, Dec. 10, 2017, www.forbes.com. وتتمتع خمس فئات من أساليب الحياة في خصوصا بإمكانات مهمة في هذا النوع من الابتكار: الصحة والرفاهية، والمسؤولية الاجتماعية، والوسائط والمشاركة المدنية، وصيانة المهارات، والتنوير الشخصي. وسننظر في كل منها هنا.

الصحة والرفاهية. هناك توجه مهم من تقديم إشعارات الإظهار في تطبيقات الصحة والعافية – من تلك التي تسهّل اللياقة الشخصية أو التركيز أو إدارة النوم إلى تلك التي تسمح لنا بوضع حدود زمنية بأوقات استخدام الشاشات في هواتفنا الخلوية. وتمثّل الثلاجات الذكية حدوداً أخرى. مثلاً، يمكن لإضافة إشعارات إظهار توضح أنماط استهلاك الأغذية الشديدة المعالجة والعالية السكر والمعلبة والمجمدة والطازجة، إلى جانب البيانات اليومية لاستهلاك السعرات الحرارية، أن تساعد المستخدمين على تحسين عاداتهم الغذائية. وإلى جانب البيانات المستقاة من خدمات تسليم البقالة، قد ترشد هذه الإشعارات المستخدمين لطلب البقالة وفق وصفات أكثر صحية وأطعمة من مصدر محلي أو مستدام.

المسؤولية الاجتماعية. هناك مجال آخر ذو إمكانات وهو مساعدة الأفراد على اتخاذ خيارات رصينة تتواءم مع قيمهم الاجتماعية في شأن العلامات التجارية والاستثمار. وتُبرِز بعض التطبيقات الآن المخاوف الأخلاقية المحتملة في المحافظ المالية، والقطاعات التي قد يرغب المستخدمون في تجنبها في ضوء التفضيلات المعلنة (مثل الكحول، والنفط، والتبغ) وتقديم إشعارات دقيقة حول أي مآزق أخلاقية قد تتورط فيها الشركات. وقد تقدم الثلاجات الذكية إشعارات حول البصمة الكربونية للبقالة المشتراة (إذ يمكن للمستهلكين الوصول إلى الملصقات الكربونية). وقد تمتد هذه الإشعارات إلى مجالات أخرى، فتنبه المستخدمين إلى عوامل مثل: تلوث الهواء والماء، ونضوب الموارد، ومغلّفات التعبئة الخضراء.

الوسائط والمشاركة المدنية. قد تستخدم تطبيقات جودة الوسائط إشعارات الإظهار لتنبيه الأشخاص إلى مصادر الأخبار المضلِّ لة أو المنحازة، على أساس كل حالة على حدة وفي استهلاكهم للأخبار عموما. ويمكن للأدوات الجديدة أن تدخل تدريجيّاً وجهات نظر بديلة، وتشجع المستخدمين على الخروج من غرف الصدى العقائدية. وتتيح تطبيقات المواطنين الاذكياء للهواتف حاليا إمكانية تطوير خرائط مسندة جماعيّاً للكشف عن المناطق التي توجد فيها مشكلات من حيث النفايات وأضواء الشوارع والنوافذ المكسورة والتخريب والحُفَر وما إلى ذلك. ويمكن للإشعارات الغريزية المصممة ببراعة متابعةُ تدخلات المستخدمين وتشجيع المواطنين على زيادة مستويات الوعي المدني والمشاركة عند المستويات المحلية والوطنية والدولية، ما يدفعهم إلى اتخاذ إجراءات تدعو فيها الحاجة إلى مساعدة.

قد تنبه التطبيقات الخاصة بجودة الوسائط الأشخاص إلى مصادر الأخبار المضلِّلة أو المنحازة. ويمكن للأدوات الجديدة أن تدخل تدريجيّاً وجهات نظر بديلة، وتشجع المستخدمين على الخروج من غرف الصدى العقائدية.

صيانة المهارات. قد تؤدي رغبتنا في الإسناد الخارجي في التعاقدات المادية المملة مع العالم الخارجي إلى خسارة مهمة في المهارات اليومية. ويُعَد وضع خرائط النظام العالمي لتحديد المواقع GPS وأنظمة القيادة الذاتية مثالين على ذلك. فعند اتباع الإرشادات المرئية أو الصوتية التي تعرضها الأنظمة حاليا، لا يحتاج المستخدمون إلى الانتباه للمعالم الرئيسية ومن ثمَّ ربّما لا يتمكنون من تذكر الطرق التي اتُّبِعت. وتقدم الإشعارات الغريزية تصحيحاً محتملاً. فنظام ممكّن بالذكاء الاصطناعي قد يشتمل على إعداد من شأنه أن محاكاة الطريقة التي قد يعطي بها شخص ما في الشارع توجيهات، لكن مع تعزيز التوجيهات بصور ثلاثية الأبعاد للمعالم الرئيسية والنقاط المرجعية حيث يجب الانعطاف. وهذا من شأنه أن يمنح المستخدمين خيار توجيه أنفسهم في محيطهم والاعتماد على ذاكرتهم للوصول إلى وجهاتهم بدلاً من اتباع الأوامر الصوتية تلقائيّاً كما تُقدَّم. وقد تشجع التصاميم الأخرى السائقين على البقاء في حالة تأهب والحفاظ على مهاراتهم في القيادة بدلاً من الاعتماد بشكل مفرط على أنظمة القيادة المؤتمتة.

التنوير الشخصي. في النهاية، فإن ما قد تقدمه بيئات الإشعارات الغريزية المصممة ببراعة هي أنظمة ذكاء اصطناعي تعمل بشكل أقل شبهاً بالأشياء وأكثر شبهاً بالأصدقاء الذين يساعدون المستخدمين على التطور إلى أقصى إمكاناتهم. وضعوا في اعتباركم قدرة أنظمة الذكاء الاصطناعي على التشجيع على مزيد من التميز في مجالات عدة مثل الفنون والمأكولات والأزياء والترفيه. فبدلاً من تعريض الأشخاص إلى أي منتجات قد يستجيبون لها في استجابة اندفاعية، كما تفعل محركات التوصية في كثير من الأحيان، تستطيع هذه الأنظمة عرض بدائل ذات تصنيفات عالية الجودة لا تعتمد فقط على الشعبية بل أيضاً على مزيج من آراء الخبراء والتفضيلات الاجتماعية الشخصية والمشتركة. وتقدم بعض الخدمات مثل نتفليكس بالفعل اقتراحات متباينة كهذه، لكن من دون ميزة توضح الكيفية التي ترتبط بها خيارات المشاهدة الشاملة للمستخدم ووقت استخدام الشاشات لديه بتقييمات الجودة.

تقدم المنصات المدعومة بالذكاء الاصطناعي للمستهلكين أدوات قوية في شكل غير عادي للتحكم في حياتهم اليومية وأنشطتهم وتفاعلاتهم وإدارتها. وهذه التكنولوجيا، إذا صُمِّمت بعناية وإخلاص، تمتلك أيضاً القدرة على تغيير السلوك البشري إلى الأفضل على نطاق واسع. ولكن إذا صُمِّمت بقصر نظر، مع وجود ميزات قليلة إن وُجِدت لمواجهة الآثار السلبية لتكوين العادات، يمكنها بدلاً من ذلك تعزيز السلبية والاعتماد والجهل والضعف. وبتطبيقها على الملايين تقوض هذه القوى أنظمة الديمقراطية الليبرالية والرأسمالية.

ومن الضروري أن تصيغ الشركات العاملة في هذا المجال استراتيجيات تصميم واضحة ومقنعة للسماح للعملاء باتخاذ خيارات مساعَدة فيما يتعلّق بأنماط سلوكهم عبر الإنترنت. وسيكرس أولئك الذين سيفعلون ذلك علاقات أقوى مع عملائهم في حين يؤدون دوراً رئيسيّاً في تحسين الرفاهية الجماعية من خلال حماية الوكالة الشخصية.

جوليان فريدلاند Julian Friedland

جوليان فريدلاند Julian Friedland

أستاذ مساعد في علم الأخلاق من كلية ترينتي للأعمال Trinity Business School بكلية ترينتي في دبلن Trinity College Dublin. للتعليق على هذا الموضوع http://sloanreview.mit.edu/x/60401.

المراجع

المراجع
1 R. Wollheim, The Thread of Life (New Haven, CT: Yale University Press, 1984).
2 M.J. Sandel, “The Case Against Perfection: What’s Wrong With Designer Children, Bionic Athletes, and Genetic Engineering,” Atlantic Monthly, April 2004, 1-11; and S. Vallor, Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting (Oxford, U.K.: Oxford University Press, 2016).
3 B. Frischmann and E. Selinger, Re-Engineering Humanity (Cambridge, U.K.: Cambridge University Press, 2018).
4 G. Lukianoff and J. Haidt, The Coddling of the American Mind: How Good Intentions and Bad Ideas Are Setting Up a Generation for Failure (New York: Penguin Random House, 2018).
5 D. Kahneman, Thinking, Fast and Slow (New York: Farrar, Straus and Giroux, 2011).
6 J. Friedland and B.M. Cole, “From Homo-Economicus to Homo-Virtus: A System-Theoretic Model for Raising Moral Self-Awareness,” Journal of Business Ethics 155, no. 1 (March 2019): 191-205.
7 Brett Frischmann and Evan Selinger describe the six forms of disengagement in Re-Engineering Humanity.
8 N. Carr, The Glass Cage: How Our Computers Are Changing Us (New York: W.W. Norton & Co., 2015).
9 W. Knight, “Socially Sensitive AI Software Coaches Call-Center Workers,” MIT Technology Review, 2017, www.technologyreview.com.
10 P. Lin, “Why Ethics Matters for Autonomous Cars,” in M. Maurer, J.C. Gerdes, B. Lenz, et al., eds., Autonomous Driving: Technical, Legal, and Social Aspects (Berlin: Springer Open, 2016), 69-85.
11 Sandel, “The Case Against Perfection.”
12 Carr, The Glass Cage.
13 Kahneman, Thinking, Fast and Slow.
14 M.R. Calo, “Against Notice Skepticism in Privacy (and Elsewhere),” Notre Dame Law Review 87, no. 3 (October 2013): 1027-1072.
15 R.H. Thaler and C.R. Sunstein, Nudge: Improving Decisions About Health, Wealth, and Happiness (New Haven, CT: Yale University Press, 2008).
16 K.G. Volpp, A.B. Troxel, S.J. Mehta, et al., “Effect of Electronic Reminders, Financial Incentives, and Social Support on Outcomes After Myocardial Infarction: The HeartStrong Randomized Clinical Trial,” JAMA Internal Medicine 177, no. 8 (August 2017): 1093-1101.
17 Vallor, Technology and the Virtues, 161.
18 B. Lamm, H. Keller, J. Teiser, et al., “Waiting for the Second Treat: Developing Culture-Specific Modes of Self-Regulation,” Child Development 89, no. 3 (June 2018): e261-e277.
19 T.W. Watts, G.J. Duncan, and H. Quan, “Revisiting the Marshmallow Test: A Conceptual Replication Investigating Links Between Early Delay of Gratification and Later Outcomes,” Psychological Science 29, no. 7 (May 2018): 1159-1177.
20 A. Duckworth and J.J. Gross, “Self-Control and Grit: Related but Separable Determinants of Success,” Current Directions in Psychological Science 23, no. 5 (October 2014): 319-325.
21 Vallor, Technology and the Virtues, 163.
22 Friedland and Cole, “From Homo-Economicus to Homo-Virtus.”
23 K. Aquino and A. Reed II, “The Self-Importance of Moral Identity,” Journal of Personality and Social Psychology 83, no. 6 (December 2002): 1423-1440.
24 S. Bowles, The Moral Economy: Why Good Incentives Are No Substitute for Good Citizens (New Haven, CT: Yale University Press, 2016).
25 K. Hwang and H. Kim, “Are Ethical Consumers Happy? Effects of Ethical Consumers’ Motivations Based on Empathy Versus Self-Orientation on Their Happiness,” Journal of Business Ethics 151, no. 2 (2018): 579-598.
26 J. Sadowski, S.G. Spierre, E. Selinger, et al., “Intergroup Cooperation in Common Pool Resource Dilemmas,” Science and Engineering Ethics 21, no. 5 (October 2015): 1197-1215.
27 R.B. Cialdini, C.A. Kallgren, and R.R. Reno, “A Focus Theory of Normative Conduct: A Theoretical Refinement and Re-Evaluation of the Role of Norms in Human Behavior,” Advances in Experimental Social Psychology 24 (December 1991): 20-234.
28 J. Sadowski, T.P. Seager, E. Selinger, et al., “An Experiential, Game-Theoretic Pedagogy for Sustainability Ethics,” Science and Engineering Ethics 19, no. 3 (September 2013): 1323-1339.
29 A. Gopaldas, “Marketplace Sentiments,” Journal of Consumer Research 41, no. 4 (Dec. 1, 2014): 995-1014.
30 Hwang and Kim, “Are Ethical Consumers Happy?”
31 L. Columbus, “2017 Roundup of Internet of Things Forecasts,” Forbes, Dec. 10, 2017, www.forbes.com.
اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى