أحد صفحات التقدم العلمي للنشر
إدارةذكاء اصطناعي

لماذا يحتاج مجلس إدارتكم إلى خطة للإشراف على الذكاء الاصطناعي

الذكاء الاصطناعي يتطلب مجلس إدارة أكثر قدرة في التعامل مع التكنولوجيا، وأكثر انتباها لمخاطره وكذلك لعوائده.

بوسعنا أن نرجئ بأمان المناقشة حول ما إذا كان الذكاء الاصطناعي سيتولى في نهاية المطاف وظائف مجالس الإدارة. ولكن لا يمكننا على الرغم من ذلك تأجيل المناقشة حول كيفية إشراف مجالس الإدارة على الذكاء الاصطناعي – وهي المناقشة التي تتعلق بما إذا كانت المؤسسات تعمل لتطوير أنظمة الذكاء الاصطناعي أو شراء برمجيات Software محرّكة بالذكاء الاصطناعي. ومع انتشار التكنولوجيا على نطاق واسع على نحو متزايد، حان الوقت لكل مجلس إدارة أن يضع نهجاً استباقياً للإشراف على كيفية عمل الذكاء الاصطناعي في سياق الرسالة العامة لأي مؤسسة وإدارة المخاطر.

وفق استطلاع عالمي أجرته ماكنزي McKinsey عام 2019 حول الذكاء الاصطناعي، وعلى الرغم من أن تبني الذكاء الاصطناعي يتزايد بسرعة، لا يزال الإشراف على المخاطر والتخفيف منها من دون حل حتى وإن كانتا تشكلان مهمتين عاجلتين: فقد قال 41% فقط من المستجيبين إن مؤسساتهم تحدد المخاطر المرتبطة بتطبيق الذكاء الاصطناعي وتحدد أولوياتها ”تحديدا شاملا“.

ويدرك أعضاء مجالس الإدارة أن هذه المهمة مدرجة في أجنداتهم: وفق تقرير لجنة الشريط الأزرق [رفيعة المستوى] Blue Ribbon Commission التابعة للجمعية الوطنية لأعضاء مجالس إدارة الشركات (NACD) لعام 2019 وعنوانه ”الأهلية للمستقبل: ضرورة الملحة لقيادة مجالس الإدارة“ Fit for the Future: An Urgent Imperative for Board Leadership، يتوقع 86% من أعضاء مجالس الإدارة ”تعميق مشاركتهم مع الإدارة حول الدوافع الجديدة للنمو والمخاطر في السنوات الخمس المقبلة“.1NACD Blue Ribbon Commission, “Fit for the Future: An Urgent Imperative for Board Leadership” (Washington, D.C.: NACD, 2019).

ولكن ما السبب وراء هذا الإلحاح؟ لأن قدرة الذكاء الاصطناعي على تحقيق فوائد كبيرة تأتي مصحوبة بمخاطر جديدة ومعقدة. مثلاً، من بين المسائل التي دفعت البائعين الرئيسيين إلى التراجع عن استخدام تكنولوجيات التعرف على الوجه الموجهة بالذكاء الاصطناعي كان وتيرة تعرفها على الوجوه غير البيضاء أو النسائية – وقلقهم أيضاً من استخدام التكنولوجيا في المراقبة الجماعية وما يترتب على ذلك من انتهاكات للحقوق المدنية. ففي يونيو 2020 توقفت آي بي إم IBM عن بيع التكنولوجيا تماما. وفي الشهر نفسه، قالت مايكروسوفت Microsoft إنها لن تبيع تكنولوجيا التعرف على الوجه إلى أقسام الشرطة إلا بعدما يقرّ الكونغرس قانوناً فيدرالياً ينظم استخدامها من قِبَل هيئات إنفاذ القانون. وعلى نحو مماثل، قالت أمازون Amazon إنها لن تسمح للشرطة باستخدام تكنولوجيتها لمدة سنة، للسماح للمشرعين باتخاذ اللازم.

أما استخدام تكنولوجيا التعرف على الوجوه الموجهة بالذكاء الاصطناعي في أعمال الشرطة؛ فليس إلا مثالا واحدا سيئ السمعة. تقريباً، قد تكون جميع أنظمة الذكاء الاصطناعي المستخدمة حاليا عرضة إلى مشكلات ناجمة عن طبيعة البيانات المستخدمة في تدريبها وتشغيلها، والافتراضات التي استُنِد إليها عند تطوير الخوارزميات نفسها، والافتقار إلى ضوابط النظام، والافتقار إلى التنوع في الفرق البشرية التي تبنيها أو تأمرها أو تطبقها.

والواقع أن العديد من القرارات التي ستحدد كيفية عمل هذه التكنولوجيات، ومدى تأثيرها، تُتَّخذ إلى حد كبير خارج منظور مجلس الإدارة – على الرغم من المخاطر الاستراتيجية والتشغيلية والقانونية التي تثيرها. ومع ذلك، فإن مجالس الإدارات مكلفة بالإشراف على الإدارة ودعمها في إدارة مخاطر الذكاء الاصطناعي في شكل أفضل.

والواقع أن زيادة معرفة مجلس الإدارة بهذه المسائل ومرئيتها Visibility لا تتعدي أن تكون أكثر من مجرد مقومات من مقومات الحوكمة جيدة. وبوسع أي مجلس إدارة، ولجانه، وأعضائه الأفراد أن يقاربوا هذا الأمر باعتباره أمراً يتطلب الالتزام الصارم، أو التخطيط الاستراتيجي، أو الإشراف التقليدي على المخاطر القانونية وتلك الخاصة بالأعمال. وقد يقاربون أيضاً حوكمة الذكاء الاصطناعي من خلال عدسة الاعتبارات البيئية Environment، والاجتماعية Socail، والحوكمية Governance (اختصارا: الاعتبارات ESG): ففي حين ينظر مجلس الإدارة إلى نشاط المشروعات الذي سيؤثر في المجتمع، يلوح الذكاء الاصطناعي في الأفق. ويطرح المجتمع الصغير للاعتبارات ESG على نحو متزايد الحجة التي تؤكد ضرورة إضافة حرف T إلى ESG (التكنولوجيا Technology) إلى محفظة مجلس الإدارة – إذ تؤكد مسائل الحريات المدنية، والقوة العاملة، والعدالة الاجتماعية تركيز مجالس الإدارة على تأثير هذه القدرات الجديدة.2A. Bonime-Blanc, “Gloom to Boom: How Leaders Transform Risk Into Resilience and Value,” 1st ed. (New York: Routledge, 2019).

بماذا تَدَين مجالس الإدارة للمؤسسات التي تخدمها

في الواقع أن واجبات أعضاء مجلس الإدارة في مجال الرعاية Care والولاء Loyalty مألوفة ومكرسة. وهي تشمل الالتزامات بالعمل بحسن نية، والاستعانة بالمعلومات الكافية، وممارسة العناية الواجبة في الإشراف على الاستراتيجية، والمخاطر، والامتثال Compliance. وأكدت محاكم ولاية ديلاوير أخيراً على دور مجالس الإدارات في فهم المخاطر النظامية والمعروفة، وتأسيس بروتوكولات فاعلة للإبلاغ، والمطالبة ببرامج امتثال كافية لتجنب المسؤولية.3Whereas the Caremark line of cases have long held that “only a sustained or systemic failure of the board to exercise oversight — such as an utter failure to attempt to assure  a reasonable information and reporting system exists — will establish the lack of good faith that is a necessary condition of liability,” recent case law recognized a  broader set of conditions under which directors might encounter liability. For example, see Wells Fargo & Co. Shareholder Derivative Litig., C.A. No. 16-cv-05541-JST (N.D. Cal. Oct. 4, 2017); Marchand v. Barnhill, 212 A.3d 805 (Del. June 18, 2019); Clovis Oncology Inc. Derivative Litig., C.A. No. 2017-0222-JRS (Del. Ch. Oct. 1, 2019); and Hughes v. Hu, C.A. No. 2019-0112-JTL (Del. Ch. April 27, 2020).

ومجالس الإدارة التي تقيم جودة تأثير الذكاء الاصطناعي ونوع الإشراف المطلوب ينبغي أن تفهم ما يلي:

1. إن الذكاء الاصطناعي أكثر من مجرد مسألة تخص فريق التكنولوجيا. إذ يتردد صدى تأثيره في مختلف أنحاء المؤسسة وهو يورّط أولئك الذين يديرون الوظائف القانونية والتسويقية ووظائف الموارد البشرية، من بين جملة من الوظائف الأخرى.

2. ليس الذكاء الاصطناعي بالأمر الوحيد. إنه نظام يتألف من التكنولوجيا ذاتها، والفرق البشرية التي تدير هذا النظام وتتفاعل معه، والبيانات التي يعمل عليها.

3. ينبغي مساءلة أنظمة الذكاء الاصطناعي من منظور الاستراتيجية والإشراف وذلك على مستوى المسؤولين التنفيذيين. إنها أنظمة معقدة وسياقية جدا ولا يمكن الوثوق بها من دون توجيه وإدارة استراتيجيين متكاملين.

4. الذكاء الاصطناعي غير ثابت. إنه مصمم للتكيف بسرعة ومن ثم فهو يتطلب إشرافاً مستمراً.

إن أنظمة الذكاء الاصطناعي الأكثر استخداماً من قبل الشركات حاليا هي محركات توقع Prediction engines فاعلة وقوية. فهي تضع هذه التوقعات استناداً إلى مجموعات البيانات التي يختارها المهندسون، الذين يستخدمونها لتدريب الخوارزميات وتغذيتها، والخوارزميات تُحسَّن بدورها وفق الأهداف المترابطة، في أغلبية الأحيان، بواسطة هؤلاء المطورين. وينجح هؤلاء الأفراد عندما يطوّرون تكنولوجيا تعمل في الوقت المحدد وفي حدود الميزانية. ولكن حاليا، ربما لا يتضمن تعريف التصميم الفاعل للذكاء الاصطناعي بالضرورة خطوط استخدام مسؤولة، كما أن المجموعات الهندسية لا تحصل عادة على الموارد اللازمة للإجابة عن هذه الأسئلة أو لتحديد ما إذا كانت أنظمة الذكاء الاصطناعي تعمل في شكل متسق مع القانون أو مع استراتيجيات الشركة وأهدافها.

والخيارات التي يتخذها مطورو الذكاء الاصطناعي، أو مدير الموارد البشرية الذي يفكر في خوارزمية خاصة بفحص السيرة الذاتية لطرف ثالث، أو مدير تسويق ينظر في نظام تسعير ديناميكي موجه بالذكاء الاصطناعي، هي خيارات مهمة. وقد تكون بعض هذه الخيارات حميدة، لكن بعضها ليس كذلك، مثل تلك التي تؤدي إلى أخطاء يصعب اكتشافها، أو إلى تحيز قد يؤدي إلى قمع التنوع أو تقاضي أسعار مختلفة للعملاء استناداً إلى النوع الجنسي (الجنوسة) Gender. ولا بد من أن يتضمن الإشراف من جانب مجلس الإدارة متطلبات خاصة بالسياسات عند مستوى الشركة وعند مستوى حالات الاستخدام التي تحدد الأغراض التي ستُستخدَم لها أنظمة الذكاء الاصطناعي وتلك التي لن تُستخدَم فيها. كذلك يتعين على الإشراف أيضاً أن يضع معايير يمكن من خلالها تقييم عمل أنظمة الذكاء الاصطناعي وسلامتها ومتانتها ومدتها. ولا بد من دعم هذه السياسات بعمليات عملية، وثقافة قوية، وهياكل امتثال.

المخاطر القانونية والتنظيمية الحالية. ليست الادعاءات بأن الذكاء الاصطناعي لم يُنظَّم بعد صحيحة تماماً. فالمخاطر القانونية والتنظيمية الحالية لا بد وأن تستحوذ على اهتمام مجلس الإدارة بالفعل.

والواقع أن العديد من القوانين والتوجيهات مطبقة بالفعل. فالمبادئ التوجيهية التي نشرتها لجنة التجارة الفيدرالية أخيراً تعترف بأن بعض عمليات اتخاذ القرار المؤتمتة تخضع بالفعل للتنظيم بموجب القوانين الموجودة مثل قانون الإبلاغ عن الائتمان المنصف Fair Credit Reporting Act، الصادر في عام 1970، وقانون تكافؤ فرص الائتمان Equal Credit Opportunity Act، الصادر عام 1974. وإضافة إلى ذلك، في عام 2017، قدمت كل من لجنة التجارة الفيدرالية ووزارة العدل بياناً مشتركاً إلى منظمة التعاون الاقتصادي والتنمية يحلل تطبيق قوانين مكافحة الاحتكار على الخوارزميات ويخلُص إلى أن القواعد الموجودة ضد التواطؤ كافية لملاحقة الانتهاكات.

وقد تتحمل الشركات المسؤولية عن مدى امتثال استخداماتها للأنظمة الموجهة بخوارزمية معينة لقواعد راسخة في مكافحة التمييز. مثلا، اتهمت وزارة الإسكان والتنمية الحضرية في الولايات المتحدة فيسبوك Facebook أخيراً بانتهاك القانون الفيدرالي للإسكان المنصف لاستخدامه خوارزميات لتحديد استراتيجيات استهداف الإعلانات المرتبطة بالإسكان والتي تستند إلى خصائص محمية قانونا مثل العرق والإثنية والدين والوضع العائلي والنوع الجنسي والإعاقات. فقد قضت محاكم كاليفورنيا هذا العام بتطبيق قانون أونروه للحقوق المدنية الصادر عام 1959 على الممارسات التمييزية التي تمارسها الشركات عبر الإنترنت. مثلاً، في قضية كانديلور ضد تيندر، تبين أن نموذج التسعير الذي تتبناه تيندر Tinder ينتهك قانون أونروه لأنه يميز ضد العملاء الذين يبلغون من العمر 30 سنة وما فوق إذ تقاضت منهم أكثر من ضعف المبلغ الذي دفعه المشتركون الذين تقل أعمارهم عن 30 سنة للوصول إلى تيندر بلس Tinder Plus.

كذلك يتكيف المشهد القانوني مع التطور المتزايد للذكاء الاصطناعي وتطبيقاته في مجموعة واسعة من الصناعات خارج القطاع المالي. مثلاً، تدعو لجنة التجارة الفيدرالية إلى استخدام أدوات الذكاء الاصطناعي “الشفافة، والقابلة للاحتواء، والمنصفة، والسليمة تجريبياً”، وتطالب بالمساءلة وبمعايير. وتؤكد التوجيهات المحدثة الصادرة عن القسم الجنائي في وزارة العدل أن برنامج امتثال كافٍ من قِبَل الشركات يشكل عاملاً في المبادئ التوجيهية لإصدار الأحكام.

وبوسعنا أن نتوقع أيضاً أن تتطلب الفجوات التنظيمية قواعد جديدة مثل قانون المقابلات بالفيديو بالذكاء الاصطناعي الجديد الصادر في ولاية إيلينوي، والذي يحكم استخدام أصحاب العمل الذكاء الاصطناعي لتحليل المقابلات الشخصية بالفيديو. وفي الوقت نفسه، تتقدم الهيئة التشريعية لولاية واشنطن بمشروع قانون الخصوصية الخاص بواشنطن، الذي سيتناول مباشرة بعض الاستخدامات التجارية لتكنولوجيا التعرف على الوجه. وينظر الكونغرس الأمريكيّ في اقتراحات متعدّدة ستتناول الجوانب المختلفة للعدالة الخوارزمية.

وتقدم الحكومات في مختلف أنحاء العالم مبادئ توجيهية طوعية للذكاء الاصطناعي الجدير بالثقة أو المسؤول. وأصدر الاتحاد الأوروبي مبادئه التوجيهية بشأن الأخلاقيات في أبريل 2019. وفي الولايات المتحدة، نشرت وزارة الدفاع دليلها الأخلاقي ذا الخمس نقاط الخاص بالذكاء الاصطناعي هذا العام، وأصدرت لجنة الأمن القومي للاستخبارات الاصطناعية المبادئ التوجيهية للذكاء الاصطناعي المسؤول في يوليو. وبوسعنا أن نتوقع مزيداً من هذه الجهود لوضع معايير لما يمكن قبوله من استخدام الذكاء الاصطناعي. وسيكون بعضها طموحاً، وبعضها إرشادياً؛ وبعضها أكثر عموماً، وبعضها موجه نحو تكنولوجيات أو صناعات أو حالات استخدام محددة.

ومن منظور مجلس الإدارة، يشكل الامتثال للقواعد الموجودة نقطة واضحة، لكن من الأهمية بمكان أيضاً أن يتماشى مع المعايير المتطورة للمجتمعات الصغيرة فيما يتصل بواجب الرعاية المناسب مع انتشار هذه التكنولوجيات وفهمها في شكل أفضل. فضلاً عن ذلك، فحتى بعد سريان القوانين، قد يكون تطبيقها في أطر أعمال معينة لحل مشكلات معينة في مجال الأعمال صعباً ومتشابكاً. ويتعين على مجالس الإدارات أن تؤكد على أن الإدارة تتسم بالقدر الكافي من التركيز والموارد لإدارة الامتثال في شكل جيد، إلى جانب المفاضلات الاستراتيجية الأوسع نطاقاً والمخاطر التي يفرضها الذكاء الاصطناعي.

المخاطر التي تهدد العلامة التجارية والسمعة. قد تؤدي مسألة تكامل العلامة التجارية، وهي من ضمن المخاوف الحالية لمجالس الإدارة، على الأرجح إلى دفع مسؤولية الذكاء الاصطناعي في الأجل القريب. وتوصلت دراسة حديثة أجريت حول المسائل التي تواجه الأفراد المكلفين بتعزيز الذكاء الاصطناعي المسؤول داخل الشركات إلى أن “أكثر الحوافز انتشاراً للعمل كانت الاهتمام الإعلامي الكارثي وتضاؤل التسامح الإعلامي مع الوضع الراهن”. وقبل سريان القوانين والتنظيمات الجديدة بفترة طويلة، تكوّن الأطراف المعنية في الشركة مثل العملاء والموظفين والجمهور آراء حول كيفية استخدام مؤسسة ما للذكاء الاصطناعي. ومع دخول هذه التكنولوجيات إلى الأعمال والمنازل، سيحدد تأثيرها -على نحو متزايد- سمعة العلامة التجارية فيما يتصل بالثقة والجودة، وبرسالتها.

ولا مفر من تفاقم أشكال التفاوت العرقي والجنسي والثقافي بسبب الذكاء الاصطناعي. ومعالجة هذه المسائل في إطار التكنولوجيا هي أمر ضروري، لكنه ليس كافياً. ولا شك في أننا لا نستطيع أن نتحرك إلى الأمام إلا من خلال الالتزام الحقيقي بالتنوع والإدماج عند مستويات تطوير التكنولوجيا واستهلاك التكنولوجيا كلها.

ويؤيد الرأي العام الحذر حول الكيفية التي ستؤثر بها هذه التكنولوجيات في الخصوصية والحريات المدنية: فقد توصل مركز حوكمة الذكاء الاصطناعي Centre for the Governance of AI التابع لجامعة أكسفورد University of Oxford إلى أن 8 من كل 10 أمريكيين شملهم الاستطلاع ”يتفقون على ضرورة إدارة الذكاء الاصطناعي و/أو الروبوتات بعناية“. ويزعم بعض المحللين أن المستهلكين (أفراداً وشركات) كانوا أبطأ بالتفكير في التساؤلات حول كيفية التمييز بين الأدوات العالية الجودة والأدوات المنخفضة الجودة، أو كيفية شراء التكنولوجيات بثقة لأغراض الأعمال أو الاستخدام المنزلي، أو ما هي خصائص أو افتراضات السلامة (بعيداً عن استخدام البيانات) التي يريدونها، أو يثقون بها، أو سيقبلونها. ولكن هذا آتٍ لا محالة.

مخاوف على استمرارية الأعمال (مرة أخرى). تدرك مجالس الإدارات والمسؤولون التنفيذيون تمام الإدراك أن المؤسسات المعتمدة على التكنولوجيا عُرضة للاضطراب عندما تفشل الأنظمة أو تسوء، والذكاء الاصطناعي يثير اعتبارات جديدة جديرة بالاهتمام في هذا الصدد. فأولاً، تعتمد العديد من أنظمة الذكاء الاصطناعي على العديد من تكنولوجيات الأطراف الثالثة (وغير المعروفة)، ما قد يهدد الموثوقية إذا كان أي عنصر معيباً أو معزولاً أو غير مدعوم بالقدر الكافي. وثانياً، ينطوي الذكاء الاصطناعي على إمكانات تخص أنواعاً جديدة من التهديدات الإلكترونية، الأمر الذي يتطلب مستويات جديدة من التنسيق داخل أي مؤسسة. وضعوا في اعتباركم أن العديد من مطوري الذكاء الاصطناعي سيقولون لكم إنهم لا يعرفون حقاً ما الذي سيفعله نظام الذكاء الاصطناعي حتى يفعله — وهذا الذكاء الاصطناعي الذي ”يحيد“، أو لا يمكن الوثوق به، سيحتاج إلى معالجة وقد تدعو الحاجة إلى سحبه من الإنتاج أو الخروج من السوق.

ما الذي يمكن لمجالس الإدارة فعله؟

بغض النظر عن الطريقة التي يقرر بها مجلس الإدارة التعامل مع الإشراف على الذكاء الاصطناعي، فهو سيؤدي دوراً حاسماً في النظر في تأثير تكنولوجيات الذكاء الاصطناعي التي تختار الشركة استخدامها. وقبل أن تكون قوانين محددة سارية، وحتى بعد كتابتها بفترة طويلة، ستتخذ الشركات قرارات مهمة حول كيفية استخدام هذه الأدوات، وكيف قد تؤثر في القوى العاملة لديها، ومتى تعتمد عليها بدلاً من إصدار حكم بشري.

ومن المرجح أن تكون أصعب الأسئلة التي قد يواجهها مجلس الإدارة في شأن تطبيقات الذكاء الاصطناعي المقترحة ”هل ينبغي لنا أن نستخدم الذكاء الاصطناعي على هذا النحو؟“ و”ما هو واجبنا في فهم الكيفية التي تتسق بها هذه الوظيفة مع كل معتقداتنا ورسائلنا وأهدافنا الاستراتيجية الأخرى؟“ ويتعين على مجالس الإدارات أن تقرر أين تريد الإدارة أن ترسم الخط: مثلاً، تحديد اقتراح ناتج من الذكاء الاصطناعي ورفضه إذا كان غير قانوني (أسهل) أو إذا تعارض مع القيم التنظيمية (أصعب).

ولمتابعة توصية الجمعية الوطنية لأعضاء مجالس إدارة الشركات National Association of Corporate Directors (اختصارا: الجمعية NACD) بالتكيف بأن ”عليها أن تنخرط في شكل أكثر استباقية وعميق وعلى نحو متكرر في دوافع جديدة وسريعة التغير للاستراتيجية والمخاطر“، قد تبدأ مجالس الإدارات بالنظر في تكوينها. وكما لاحظ أحد مفوضي الجمعية في تقريره لعام 2019، ”لا يشعر العديد من أعضاء مجالس الإدارة بالارتياح في الحديث عن التكنولوجيات الناشئة، والأمن السيبراني Cybersecurity، وغير ذلك من المواضيع المعقدة…. ونتيجة لهذا يميلون إلى الإذعان إلى الآخرين، وهو ما قد يكون تنازلاً عن مسؤوليتهم كأعضاء نشطين في مجلس الإدارة“. وعندما استطلعت الجمعية NACD آراء أعضاء في مجالس إدارة حول الحوكمة الرقمية عام 2019، وافق 64% من المستجيبين على أن يكون العضو التالي الذي يُعيَّن في مجلس الإدارة لديه خبرات تكنولوجية قوية.

فمع وجود أعضاء لديهم القدرة، ينبغي أن تؤدي مجالس الإدارة ما يلي من أجل توفير الإشراف الكافي على الجهود في مجال الذكاء الاصطناعي:

1. تعرّفوا على مكان استخدام الذكاء الاصطناعي وغيره من التكنولوجيات الناشئة في المؤسسة أو التخطيط لاستخدامها، والسبب وراء ذلك.

2. ضعوا سجلاً منتظماً للإدارة للإبلاغ عن السياسات والعمليات التي تحكم هذه التكنولوجيات على وجه التحديد، ولوضع معايير لعمليات شراء الذكاء الاصطناعي، وتطبيقه، والتدريب عليه، وامتثاله، والإشراف عليه. وقد أعدّ المنتدى الاقتصادي العالمي World Economic Forum مجموعة أدوات جيدة للذكاء الاصطناعي مخصصة لمجالس الإدارة من أجل بدء هذا العمل.

3. شجعوا تعيين مسؤول تنفيذي ليكون مسؤولاً عن هذا العمل في وظائف الشركة.

4. شجعوا توفير الموارد الكافية والتدريب لوظيفة المراقبة.

ليس من السابق للأوان أن تبدأ مجالس الإدارة هذا العمل؛ فحتى بالنسبة إلى الشركات التي لا تستثمر إلا القليل في تطوير الذكاء الاصطناعي، ستجد التكنولوجيا طريقها إلى المؤسسة من خلال الأدوات والخدمات التي تحتوي على الذكاء الاصطناعي. إن المخاطر القانونية والاستراتيجية وتلك الخاصة بالعلامة التجارية التي ينطوي عليها الذكاء الاصطناعي خطيرة إلى الحد الذي يجعل مجالس الإدارة تحتاج إلى منشأة لها، فضلاً عن العملية التي يمكنها من خلالها العمل مع الإدارة لاحتواء المخاطر وجني المكافآت.

كارين سيلفرمان Karen Silverman

كارين سيلفرمان Karen Silverman

(@kesilverman)
Board of Airline Representatives الرئيسة التنفيذية ومؤسسة NACD مجموعة كانتلوس Board of Airline Representatives، التي تنصح القادة المسؤولين عن الإشراف على الذكاء الاصطناعي التطبيقي وغير ذلك من تكنولوجيات الريادة. فقد كانت في السابق شريكة في الشركة القانونية لاثام ووتكينز Latham & Watkins. للتعليق على هذا الموضوع https://sloanreview.mit.edu/x/62202.

المراجع

المراجع
1 NACD Blue Ribbon Commission, “Fit for the Future: An Urgent Imperative for Board Leadership” (Washington, D.C.: NACD, 2019).
2 A. Bonime-Blanc, “Gloom to Boom: How Leaders Transform Risk Into Resilience and Value,” 1st ed. (New York: Routledge, 2019).
3 Whereas the Caremark line of cases have long held that “only a sustained or systemic failure of the board to exercise oversight — such as an utter failure to attempt to assure  a reasonable information and reporting system exists — will establish the lack of good faith that is a necessary condition of liability,” recent case law recognized a  broader set of conditions under which directors might encounter liability. For example, see Wells Fargo & Co. Shareholder Derivative Litig., C.A. No. 16-cv-05541-JST (N.D. Cal. Oct. 4, 2017); Marchand v. Barnhill, 212 A.3d 805 (Del. June 18, 2019); Clovis Oncology Inc. Derivative Litig., C.A. No. 2017-0222-JRS (Del. Ch. Oct. 1, 2019); and Hughes v. Hu, C.A. No. 2019-0112-JTL (Del. Ch. April 27, 2020).
اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى