أحد صفحات التقدم العلمي للنشر
خصوصية المعلوماتذكاء اصطناعي

هل المراقبة بالذكاء الاصطناعي تجعل مكان العمل أكثر أمناً؟

من الممكن حماية صحة الموظفين ورفاههم من خلال مراقبة سلوكهم رقمياً، لكن إلى أي مدى يجب أن تذهب الشركات؟

توماس تشامورو بريموزيك

مع تعافي العالم من موجة الصدمة الأولية الناجمة عن جائحة كوفيد-19، تستعد الشركات للعودة إلى أماكن عملها المادية. وفي معظم الحالات، فإنها تنفتح تدريجياً، مع تركيز غير مسبوق على الحفاظ على سلامة العاملين عند عودتهم. ولحماية صحة الموظفين ورفاههم يجب على المؤسسات إعادة هندسة مساحات العمل الخاصة بها في شكل منهجي. وقد يشمل ذلك إعادة تشكيل المكاتب، وإعادة ترتيب المكاتب، وتغيير نوبات الموظفين لتقليل الازدحام، والسماح للأشخاص بالعمل عن بُعد في الأمد البعيد. فهناك التدابير الطبية البحتة، مثل الفحوصات المنتظمة لدرجات الحرارة، وتوفير كمامات الوجه وغيرها من معدات الحماية الشخصية، والمجيء حتى بأطباء إلى الموقع. وكان من الممكن أن تبدو هذه الاحتياطات متطرفة قبل وقت قصير، لكنها سرعان ما صارت ممارسات مقبولة.

وقريباً، قد تبدأ المؤسسات أيضاً بمراقبة أماكن الموظفين وسلوكهم مراقبة أوثق من أي وقت مضى، وذلك باستخدام أدوات المراقبة مثل تطبيقات الهواتف المحمولة وأجهزة الاستشعار المكتبية والخوارزميات التي تستخلص كميات هائلة من البيانات التي ينتجها الناس أثناء عملهم، وتحليلها. وحتى عندما لا يكونون في المكتب، يولد العاملون بحراً من البيانات من خلال تفاعلاتهم على البريد الإلكتروني، وتطبيق سلاك Slack، ومنصات النصوص والرسائل الفورية، والاجتماعات بالفيديو، والمكالمات الهاتفية التي لم تنقرض بعد. وبمساعدة الذكاء الاصطناعي، فإنه يمكن ترجمة هذه البيانات إلى تشخيص آلي في الوقت الحقيقي يقيس صحة الناس ورفاههم، ومستويات الخطر الحالية، واحتمالات المخاطر في المستقبل. وهناك أمر موازٍ هنا يتمثل باستخدام العديد من الحكومات لتدابير مراقبة مختلفة، مع بعض النجاح، لاحتواء الجائحة (في الصين وسنغافورة وأستراليا، مثلاً). وعلى الأخص، جرى نشر أدوات متابعة وتتبع لملاحقة كل تحرك للناس، بهدف عزل الأفراد المصابين والحدّ من العدوى.1S. Bond, “Apple and Google Build Smartphone Tool to Track COVID-19,” NPR, April 10, 2020, www.npr.org.

والمراقبة التكنولوجية مثيرة للجدل دائماً، ليس أقله لكونها غير متوائمة مع القيم والمبادئ الأساسية التي أسست عليها المجتمعات الحرة والديمقراطية. والواقع أن فكرة استخدام الذكاء الاصطناعي لأداء مهامّ ”بشرية“ في السابق هي بالفعل فكرة مُستقطِبة تماماً؛ فبالنسبة إلى الكثيرين منا، فإن فكرة استخدامها أيضا للمراقبة يضيف عنصراً من المخاوف الأورويلية Orwellian.

ومع ذلك، حتى في المجتمعات الحرة والديمقراطية، فقد أعطينا بالفعل كثيراً من البيانات الشخصية في العصر الرقمي إلى درجة أن مفهوم الخصوصية جرى تخفيض قيمته وتمييعه إلى حد كبير. وفي بعض الأحيان فعلنا ذلك على أمل أن نكون أكثر أماناً أو أكثر صحة، لكن في الغالب من أجل استهلاك إعلانات أكثر أهمية، ومشاهدة أفلام أكثر إثارة للاهتمام، والتباهي من صالة النادي التنفيذي، والتطفل على الناس الذين واعدناهم في المدرسة الثانوية (نعم، نحن على ما يبدو قادرين على أن نكون مخيفين، أيضاً).

وإضافة إلى ذلك، وحتى قبل انتشار الجائحة، كانت الشركات التجارية تطبق بالفعل الذكاء الاصطناعي لإدارة قواها العاملة. وكان العديد من أصحاب العمل يستخدمونها لقياس إمكانات الناس أو توقع مواهبهم، وذلك بفضل مجال تحليلات الأشخاص المزدهر People analytics.2J. Bersin and T. Chamorro-Premuzic, “New Ways to Gauge Talent and Potential,” MIT Sloan Management Review 60, no. 2 (winter 2019): 7-10; and H. Schellmann, “How Job Interviews Will Transform in the Next Decade,” The Wall Street Journal, Jan. 7, 2020, www.wsj.com. وفي الواقع، يمكن إرجاع الارتفاع الحالي للبيانات كرواج مهيمن في الموارد البشرية إلى بدايات حركة الإدارة العلمية منذ أكثر من مئة عام، عندما كان فريدريك تايلور Frederick Taylor رائداً في الجهود الرامية إلى تحويل المؤسسات الكبيرة إلى مختبرات للموارد البشرية من خلال قياس كل خطوة للموظفين لتحسين تصميم المهمة وتحقيق الحد الأقصى من الإنتاجية. ويمكن للمرء أن يجادل في أن الذكاء الاصطناعي عزز ببساطة السعي المستمر إلى تحسين أداء القوى العاملة، وأن استخدامه للحفاظ على سلامة الموظفين وصحتهم هو خطوة أخرى في هذا الاتجاه.

القدرات الموجودة

إن وضع نماذج للحالات الصحية للعاملين ومستويات المخاطر، وتوقع ما إذا كان الناس يشكلون تهديداً لزملائهم، هو من الأعمال المتطور. فغالبية المؤسسات لا تمتلك الأدوات والقدرات حتى الآن، ومن الصعب القول كم من الخطوات قطعت شوطاً كبيراً، لأن الشركات تتردد في الإعلان عن جهود مثل هذه. ولكن هناك قدرا كبيرا من الأبحاث الأكاديمية التي تبين إمكانية تطبيقها في العالم الحقيقي، بما في ذلك الدراسات العلمية التي تحدد مختلف الإشارات الرقمية، نوع البيانات التي ننتجها وتظهر علينا بالفعل، كمؤشرات صحية أو علامات خطر. وربطت بعض الشركات بين هذه النقاط في السوق: تذكروا عندما كانت تارغت Target قادرة على استنتاج أن واحدة من زبائنها في سن المراهقة كانت حاملاً قبل أن يعرف والدها ذلك، من خلال مقارنة عادات تسوقها مع تلك الخاصة بالعميلات الحوامل الأخريات؟ وعندما توقعت اتجاهات الإنفلونزا في غوغل Google Flu Trends بالأوبئة على نطاق المجاميع السكانية من خلال النظر في عمليات البحث الفردية؟ وبقدر ما يمكن لأصحاب العمل الوصول بالمثل إلى البيانات السلوكية، يمكنهم إنشاء ملفات تعريفية عن صحة عامليهم ومخاطرهم والتدخل لحماية رفاههم.

ولنتأمل هنا، مثلاً، إمكانية تسخير معالجة اللغة الطبيعية، وهي حقل فرعي من اللسانيات الحسابية Natural language processing التي تكشف عن الصلات بين استخدام الأفراد للغة (أي الكلمات نستخدم، وكيف، وفي أي سياق) وحالاتها العاطفية والنفسية والصحية.3R.A. Calvo, D.N. Milne, M.S. Hussain, et al., “Natural Language Processing in Mental Health Applications Using Non-Clinical Texts,” Natural Language Engineering 23, no. 5 (September 2017): 649-685. ولأن معظم تواصلنا – سواء عبر رسائل البريد الإلكتروني أم المكالمات أم المؤتمرات بالفيديو – مسجلة الآن، يمكن لأصحاب العمل أن يطبقوا الذكاء الاصطناعي لتحديد علامات المخاطر الفردية والجماعية. ونفذت هذا النهجَ جامعاتٌ في سنغافورة، حيث كشفت مقاطع الفيديو الخاصة بالفصول الدراسية في الموقع عن تفاعلات بين الطلبة المرضى وغيرهم. ومع هذا العدد الكبير من الاجتماعات التي تحدث عبر الإنترنت، يمكن للشركات أيضاً أن تنقب في الاتصالات بالفيديو عن لغة (إيماءات) الجسد Body language أو تعبيرات الوجه لتحديد التغيرات في الأنماط وتقييم ما إذا كانت التعبيرات غير اللفظية، بما في ذلك الخصائص الفيزيائية للكلام (النبرة، والمقام، والنغمة، والإيقاع)، قد تشير إلى خطر.4P. Wlodarczak, J. Soar, and M. Ally, “Multimedia Data Mining Using Deep Learning,” in “Fifth International Conference on Digital Information Processing and Communications” (Sierre, Switzerland: IEEE, 2015).

ويتيح تحليل الشبكات الاجتماعية فرصاً إضافية لتقييم المخاطر والتدخل. ويمكن استخدام بيانات تعريف البريد الإلكتروني (من تراسل بالبريد إلكتروني، ومتى، وكيف في كثير من الأحيان) ومتابعة بيانات أجهزة الاستشعار الموضوعة في الغرف أو على الأشخاص لمراقبة ما إذا كان الأفراد الذين أظهروا أعراض كوفيد-19، أو جاءت فحوصهم إيجابية، قد اتصلوا بزملاء يمكن بعد ذلك حجرهم صحياً. وثمة توسع أكثر قليلاً، لكن ليس من المستحيل أن نتصوره: قد يرغب أصحاب العمل أيضاً في الوصول إلى البيانات من أوبر Uber أو وايز Waze أو خرائط غوغل Google Maps أو واتس آب WhatsApp أو وي تشات WeChat أو تطبيقات أخرى للتحقق من أين يذهب الأشخاص، ومن يتواصلون معهم، وما يقولونه. ويمكن، نظرياً، استخدام هذه البيانات ليس فقط لتشخيص الأفراد الذين لا يدركون مخاطرهم أو مرضهم، لكن أيضاً للكشف عن أولئك الذين يخفون أسرارهم.

القيود التي نحتاج إليها

وقبل انتشار الجائحة كانت هناك بالفعل فجوة واضحة بين ما يمكن للشركات معرفته وينبغي أن تعرفه عن الناس، وستزداد هذه الفجوة في المستقبل القريب. ومن المرجح أن يكون الناس أقل انزعاجاً من غوغل Google وفيسبوك Facebook وأمازون Amazon التي تدقق في كل تحركاتهم، وتسوق بياناتهم، وأكثر انزعاجاً من أصحاب العمل الذين ينقبون في بيانات عملهم. وعلى الرغم من أن شروط الاتفاقيات المبرمة مع مزودي المنتجات والخدمات كثيراً ما تُدفَن في أحرف مطبوعة صغيرة الحجم، إلا أنه بإمكان المستخدمين أن يختاروا إعطاء موافقتهم أو حجبها. وربما لا يشعر الموظفون، بالضرورة، بأن بإمكانهم فعل ذلك كموظفين، ولاسيما إذا كانوا يخشون فقدان وظائفهم.

ومما لا شك فيه أن هناك حاجة إلى قيود قانونية لمنع أي شخص، بما في ذلك أصحاب العمل، من معرفة أكثر مما ينبغي عنا والتدخل في حرياتنا وحقوقنا.5B. Dattner, T. Chamorro-Premuzic, R. Buchband, et al., “The Legal and Ethical Implications of Using AI in Hiring,” Harvard Business Review, April 25, 2019, https://hbr.org. ومع ذلك، فهناك طرق أخلاقية لتطبيق التكنولوجيات الجديدة، بما في ذلك المراقبة بالذكاء الاصطناعي، لتعزيز السلامة في العمل.

أولاً، يجب على المؤسسات التأكد من أن الموظفين يعرفون بوضوح تام ما هي الصيغة: أي ما هي البيانات التي تجمعها المؤسسات ولماذا. ثانياً، بمجرد إبلاغ العاملين بإجراءات الرقابة وفهم الأسباب الكامنة وراءها، ينبغي أن تتاح لهم فرصة عدم المشاركة من دون خوف من العقاب، أو حتى الأفضل من ذلك، أن يختاروا بشكل استباقي المشاركةَ لأنهم يرون قيمة فعل ذلك. ثالثاً، ينبغي أن يستفيد الموظفون أنفسهم من مشاركة بياناتهم ووجود خوارزميات لتحليل نشاطهم – سواء كانوا يحصلون على ملاحظات لتطوير أنفسهم أم لا؛ أو هناك زيادة في الرضا الوظيفي أو المشاركة؛ أو تحصيل مستويات أعلى من الأداء الوظيفي أو الإنتاجية؛ أو، الآن، خلال انتشار الجائحة، يشيع شعور بالحماية واحتمال أكبر للبقاء في صحة جيدة. ومن خلال التعامل مع الموظفين بطريقة شفافة ومن خلال مشاركة النتائج العالية المستوى معهم، مع الحفاظ على عدم الكشف عن الهوية الفردية والسرية، يمكن للشركات أن تظهر للموظفين أن الأمر يستحق المشاركة، ومن ثم تخفيف الخوف من الذكاء الاصطناعي.

ولكن، يجب على المديرين أن يعرفوا أوجه قصور التكنولوجيا، نظراً لأن الإيجابيات الزائفةFalse positives والسلبيات الزائفة False negatives شائعة إلى هذا الحد. وهذه ليست مسألة يمكن إهمالها. فحتى في بعض التطبيقات الأكثر استخداما للذكاء الاصطناعي، مثل محرك التوصيات في أمازون Recommendations engine، تشير التقديرات الأكاديمية إلى أن الدقة تبلغ نحو خمسة في المئة.6A. Agrawal, J. Gans, and A. Goldfarb, “Prediction Machines: The Simple Economics of Artificial Intelligence” (Boston: Harvard Business Review Press, 2018). ويجب على الشركات أن تأخذ بالحسبان ذلك في نمذجتها. وإضافة إلى ذلك، فقد تكون الإشارات توقعية لكن من الصعب تفسيرها. فمعظم أصحاب العمل يفتقرون ليس فقط إلى الحجم والجودة الخاصين بالبيانات التي تمتلكها شركات التكنولوجيا الكبرى، لكن أيضاً علماء البيانات Data scientists المهرة اللازمين لفهمها. وستحتاج هذه المؤسسات إلى دعم من خبراء خارجيين لتحويل البيانات إلى خوارزميات آلية يمكنها أن تحافظ على سلامة الموظفين.

وأخيراً، يجب أن يكون الموظفون قادرين على الثقة في تطبيق قادتهم التكنولوجيات الجديدة، بما في ذلك الذكاء الاصطناعي، لغرض نبيل. ويتطلب كسب هذه الثقة قدراً كبيراً من الشفافية – حول لماذا وكيف سيجري استخدام الذكاء الاصطناعي، والعوامل الرئيسية التي توجه توصيات النظام، وقيود التكنولوجيا، والأحكام البشرية التي تغذي النظام وتفسر البيانات. ويحتاج الموظفون إلى الشعور بأن قادتهم مهتمون حقاً بتعزيز أدائهم، وتحسين صحتهم، والحفاظ على سلامتهم، وأن المراقبة بالذكاء الاصطناعي ستجعل الشركة مكاناً أفضل للعمل. فحتى الجهود الهادفة إلى الاستفادة من الذكاء الاصطناعي لحماية الأفراد ستأتي بنتائج عكسية إذا لم يكن تشيع في الشركات ثقافة الثقة وكان الموظفون يشكون في أولئك الذين هم في القمة.

توماس تشامورو - بريموزيتش Tomas Chamorro-Premuzic (@drtcp)

توماس تشامورو - بريموزيتش Tomas Chamorro-Premuzic (@drtcp)

هو كبير علماء المواهب في مان باور غروب ManpowerGroup، وأستاذ علم النفس في مجال الأعمال من كلية لندن الجامعية University College London وجامعة كولومبيا Columbia University، ومشارك في مختبر تمويل ريادة الأعمال Entrepreneurial Finance Lab بجامعة هارفارد Harvard Universtiy. وهو مؤلف كتاب لماذا يكون العديد من الرجال غير الأكفاء قادة؟ (وكيفية إصلاح الأمر) Why Do So Many Incompetent Men Become Leaders? (and How to Fix It) (مطبوعات: Harvard Business Review Press، 2019) للتعليق على هذا الموضوع: https://sloanreview.mit.edu/x/62103.

المراجع

المراجع
1 S. Bond, “Apple and Google Build Smartphone Tool to Track COVID-19,” NPR, April 10, 2020, www.npr.org.
2 J. Bersin and T. Chamorro-Premuzic, “New Ways to Gauge Talent and Potential,” MIT Sloan Management Review 60, no. 2 (winter 2019): 7-10; and H. Schellmann, “How Job Interviews Will Transform in the Next Decade,” The Wall Street Journal, Jan. 7, 2020, www.wsj.com.
3 R.A. Calvo, D.N. Milne, M.S. Hussain, et al., “Natural Language Processing in Mental Health Applications Using Non-Clinical Texts,” Natural Language Engineering 23, no. 5 (September 2017): 649-685.
4 P. Wlodarczak, J. Soar, and M. Ally, “Multimedia Data Mining Using Deep Learning,” in “Fifth International Conference on Digital Information Processing and Communications” (Sierre, Switzerland: IEEE, 2015).
5 B. Dattner, T. Chamorro-Premuzic, R. Buchband, et al., “The Legal and Ethical Implications of Using AI in Hiring,” Harvard Business Review, April 25, 2019, https://hbr.org.
6 A. Agrawal, J. Gans, and A. Goldfarb, “Prediction Machines: The Simple Economics of Artificial Intelligence” (Boston: Harvard Business Review Press, 2018).
اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى