أحد صفحات التقدم العلمي للنشر
الحدود

لا تدَعوا الضجة الإعلامية حول الذكاء الاصطناعي التوليدي تشتت انتباهكم

فقاعات التكنولوجيا هي بيئات معلومات سيئة.

يمكن أن تشكل فقاعات التكنولوجيا مآزق صعبة لقادة الأعمال: قد يشعرون بالضغط للاستثمار في وقت مبكر في التكنولوجيا الناشئة للحصول على ميزة على المنافسين، لكنهم لا يريدون أن يقعوا في فخ الضجيج الفارغ. مع دخولنا فترة من عدم اليقين الاقتصادي وتسريح العاملين في صناعات متعددة، يتصارع المسؤولون التنفيذيون مع أسئلة حول الأماكن التي يمكن فيها خفض التكلفة والأماكن التي ينبغي أن يستثمروا فيها أكثر.

ويشكل مجال الذكاء الاصطناعي Artificial intelligence وتعلُّم الآلة Machine learning سريع التطور تحدياً خاصاً لمتخذي القرار في قطاع الأعمال. ويُنظَر إلى الاستثمارات في النمذجات التوقعية Predictive model المُثبتة بنحو متزايد على أنها استثمارات جيدة، ومن المتوقع أن تدفع زيادة الإنفاق على الذكاء الاصطناعي من 33 بليون دولار في العام 2021 إلى 64 بليون دولار في العام 2025. لكن فيما وراء ذلك يثير الذكاء الاصطناعي التوليدي Generative AI كمية هائلة من الضوضاء والتوقعات.

يشير الذكاء الاصطناعي التوليدي إلى نمذجات تعلُّم الآلة – مثل تشات جي بي تي ChatGPT وبينغ إيه آي Bing AI ودي إيه إل إل-إي DALL-E وميدجورني Midjourney – التي تُدرَّب باستخدام قواعد بيانات واسعة من النصوص والصور لإنشاء نصوص وصور جديدة استجابة لطلب. لقد بدأت في التكاثر عناوينُ مثل ”10 حيل تشات جي بي تي لا تستطيعون العيش من دونها“ Ten ChatGPT Hacks You Can’t Live Without! و”أنتم تستخدمون تشات جي بي تي بنحو خاطئ! إليكم كيف يمكن أن تتقدموا على 99% من مستخدمي تشات جي بي تي“ You’re Using ChatGPT Wrong! Here’s How to Be Ahead of 99% of ChatGPT Users. وفي الوقت نفسه، ذكر موقع أكسيوس Axios الإلكتروني أن التمويل يتدفق على الذكاء الاصطناعي التوليدي، إذ ارتفع من 613 مليون دولار في العام 2022 إلى 2.3 بليون دولار في العام 2023 – وهي أموال لن تؤدي إلا إلى تأجيج الضجيج.

ويجدر بقادة الأعمال – الذين لا يريدون تفويت فرصة كبيرة، لكن لا يريدون إضاعة الوقت والمال في تطبيق تكنولوجيات مبالغ في الترويج لها – أن يأخذوا بعض الحقائق الأساسية حول فقاعات التكنولوجيا بعين الاعتبار. أولاً، تعتمد هذه الظواهر على السرد Narrative – القصص التي يخبر بها الناس عن كيفية تطور التكنولوجيا الجديدة وتأثيرها في المجتمعات والاقتصادات، كما كتب أساتذة كليات الأعمال برنت غولدفارب Brent Goldfarb وديفيد كيرش David Kirsch في كتابهما الصادر في العام 2019، الفقاعات والانهيارات: ازدهار الابتكار التكنولوجي وانهياره Bubbles and Crashes: The Boom and Bust of Technological Innovation مع الأسف، فإن الروايات المبكرة التي تظهر حول التكنولوجيات الجديدة خاطئة دائماً تقريباً. والواقع أن المبالغة في تقدير الوعود والكفاءات التي تنطوي عليها الأنظمة الجديدة هي في صميم نشوء هذه الفقاعات وتفاقمها.

المتنبئون بمستقبل الأعمال Business futurists والمحللون يقعون في أخطاء شنيعة عندما يتعلق الأمر بتوقع مستقبل التطور التكنولوجي بدقة، لأنه لا يمكن لأحد أن يتوقع الطرق الإبداعية التي سيتبنى بها البشر الأدوات ويستخدمونها بمرور الوقت، أو الطرق الانتهازية التي لا تُعَد ولا تحصى التي سيستخدم بها البشر أدوات جديدة لاستغلال الآخرين أو التسلط عليهم. أو كما قال متنبئ المستقبل روي أمارا Roy Amara فيما أصبح يُعرَف باسم قانون أمارا: ”نميل إلى المبالغة في تقدير تأثير التكنولوجيا في المدى القصير، والتقليل من تأثيرها في المدى الطويل“.

إن السرد غير الواقعي الذي يدفع بنشوء فقاعات التكنولوجيا وتفاقمها مستخدَم الآن للترويج للذكاء الاصطناعي التوليدي. إذ يزعم بعض المتحمسين أن ChatGPT لا يبعد سوى خطوات قليلة عن الذكاء العام الاصطناعي Artificial general intelligence – أي أن يصبح كياناً مستقلاً بقدرات معرفية Cognition مساوية لقدرات البشر أو أفضل منها. مثلاً سام ألتمان Sam Altman، الذي يشغل منصب الرئيس التنفيذي CEO لأوبن إيه آي OpenAI، الشركة المطورة لبرمجية المحادثة ChatGPT، لديه قصة شخصية، إذ يزعم أن الذكاء الاصطناعي AI ”ستتقزم أمامه الثورة الزراعية والثورة الصناعية وثورة الإنترنت مجتمعة“. وتأتي وجهة نظر أكثر سوداوية من معهد مستقبل الحياة Future of Life Institute، وهي نظرة تفترض تأثيراً كبيراً مماثلاً لهذه النمذجات اللغوية الكبيرة، فقد نشر المعهد رسالة مفتوحة تدعو إلى حظر لمدة ستة أشهر على تدريب أنظمة الذكاء الاصطناعي الأقوى من GPT-4، وهو نموذج اللغة الكبير الذي يقوم عليه ChatGPT Plus، لأنه يهدد الإنسانية.

على الرغم من أن هؤلاء المؤيدين والنقاد لديهم وجهات نظر متباينة إلى حد كبير، فإنهم متحدون في الترويج لرؤى محمومة للمستقبل منفصلة عن حقيقة ما يمكن للشركات تحقيقه بنحو موثوق به باستخدام أدوات الذكاء الاصطناعي التوليدي حالياً. وهم بذلك لا يقدمون كثيراً لمساعدة القادة على فهم كيفية عمل هذه التكنولوجيات، وما المخاطر والقيود، أو حتى فهم ما إذا كانت مثل هذه الأدوات ستحسن الإجراءات الروتينية لشركة ما وتساهم في تحقيق هدفها النهائي.

وسائل الإعلام الإخبارية، وهي نفسها صناعة يغذيها هاجس الخوف من تفويت الفرصة fear of missing out (اختصاراً: الهاجس FOMO)، تزيد من تضخيم الفقاعة بتغطية لاهثة تستبق الحقائق. فمثلاً لا تعرض مقالة حديثة في وول ستريت جورنال Wall Street Journal بعنوان ”الذكاء الاصطناعي العام يغير بالفعل عمل ذوي الياقات البيضاء كما نعرفها“ Generative AI Is Already Changing White-Collar Work as We Know It أي دليل حقيقي على التغيير المزعوم في أماكن عمل ذوي الياقات البيضاء (موظفي المكاتب) White collar، بل تستعرض تكهنات قادة الأعمال حول التأثير المحتمل للتكنولوجيا. ومثل عديد من التقارير الأخرى التي تنذر العمال بالقضاء عليهم، تشير إلى ملخص ورقة بحثية وضعها باحثون في شركة Open AI وجامعة بنسلفانيا University of Pennsylvania عمدت إلى توقع عدد الوظائف التي ستتأثر بهذه الأنظمة البرمجية الجديدة.

في الواقع هذه التوقعاتُ لديها تاريخ من عدم الدقة. في مقال حديث أشار أستاذ الاقتصاد غاري سميث Gary Smith والأستاذ المتقاعد والاستشاري في مجال التكنولوجيا جيفري فانك Jeffrey Funk إلى أن دراسة Oepn AI/جامعة بنسلفانيا استخدمت قاعدة بيانات وزارة العمل الأمريكية نفسها التي استخدمتها دراسة جامعة أُكسفورد Oxford University وديلويت Deloitte للعام 2016 التي زعمت أن من المحتمل جداً أتمتة عديد من الوظائف التي ستلغى بحلول العام 2030. وحاولت كلتا الدراستين تحديد النسبة المئوية للوظائف بناء على المهام المتكررة Repetitive tasks، ثم توقعت عدد تلك الوظائف التي ستُلغَى بسبب التغير التكنولوجي. وبالنظر إلى الاتجاهات على مدى السنوات السبع الماضية فإنها لا تعكس التوقعات التي قدمتها دراسة العام 2016، ولذا لا سبب وجيهاً للاعتقاد بأن توقعات كهذه ستكون دقيقة الآن.

دعوة إلى الحذر
مع التاريخ السيئ للتوقعات السابقة، يجب على المسؤولين التنفيذيين التحلي بالحكمة، والتمسك بالمنطق الرصين في مواجهة الضجة الإعلامية حول الآثار المستقبلية للتكنولوجيات. ستحتاج الفرق إلى ممارسة التشكيك المنظم: ليس التشكيك غير المحسوب والرافض، بل التقييم والتفكير الصارم والعلمي. يجب فحص المزاعم حول فاعلية التكنولوجيات الجديدة للتأكد من قوتها التجريبية. بدلاً من الوقوع في فخ الأسئلة التي تدعو إلى التكهن، مثل ”كيف يمكن أن يتطور هذا؟“، أو ”ما الآثار المترتبة عليها؟“، من الأفضل أن تبدأ بالأسئلة التي تؤسس لأساس واقعي: ”ماذا نعرف؟“، و”ما الأدلة؟“. اطرحوا أسئلة محددة حول كيفية عمل التكنولوجيا، ومدى موثوقية توقعاتها، وجودة النواتج الأخرى.

يجب أن يكون قادة الأعمال حريصين بنحو خاص على التمسك بالتفكير النقدي عندما تأتي المعلومات من مصادر معروفة للضجيج التكنولوجي، بما في ذلك الجهات الاستشارية والبائعون ومحلِّلو الصناعة Industry analysts. 

في حين أن تجربة أدوات الذكاء الاصطناعي التوليدي المتاحة للجمهور يمكن أن تكون رخيصة ومفيدة، يجب على الشركات تقييم المخاطر المحتملة لاستخدام التكنولوجيات الجديدة بعناية. مثلاً من المعروف أن ChatGPT يولِّد الأكاذيب، بما في ذلك إدراج إشارات إلى نصوص غير موجودة أصلاً. يتطلب استخدام هذه التكنولوجيا رقابة دقيقة، ولاسيما عندما يكون الناتج من أنظمة الذكاء الاصطناعي التوليدي هذه متاحاً للعملاء ويُعرِّض سمعة الشركةلأضرار. كذلك تواجه الشركات خطر فقدان السيطرة على الملكية الفكرية Intellectual property أو المعلومات الحساسة Sensitive information باستخدام مثل هذه الأنظمة من دون إشراف، كما اكتشفت سامسونغ Samsung عندما سرب موظفوها بيانات مؤسسية حساسة من غير قصد عن طريق تغذيتها في ChatGPT، الذي يستخدم المعلومات المقدمة لمواصلة تدريب نمذجات النظام. وأعرف أيضاً فنانين ومصممين وناشرين يرفضون استخدام الذكاء الاصطناعي التوليدي بطرق قد تضر بالملكية الفكرية الخاصة بهم أو بعملائهم.

وبالنظر إلى هذه المخاطر المحتملة، يجب على الشركات التي ستختبر الذكاء الاصطناعي التوليدي أن تضع قواعد أساسية لاستخدامه. الخطوة الأولى الواضحة هي مطالبة أي موظف يستخدم هذه التكنولوجيات لعمله بالإفصاح عن ذلك. يمكن لسياسات الاستخدام في الشركة أيضاً أن تحدد المتطلبات الأساسية، مثل الإصرار على أن استخدام الذكاء الاصطناعي التوليدي يجب ألا يكسر القوانين الأخلاقية والقانونية الحالية، ويجب على المؤسسات أن تفكر في الحد من أنواع بيانات الشركة التي يجري إدخالها في هذه الأنظمة. وقد نشرت جمعية إدارة الموارد البشرية Society for Human Resource Management ومجموعات أخرى أخيراً مبادئ توجيهية Guidlines لاستخدام الذكاء الاصطناعي التوليدي في مكان العمل، ومن الحكمة أن يتتبع قادة الأعمال التحديثات المتتالية لهذه المبادئ التوجيهية.

هناك أيضاً مخاطر أخرى يجب على الشركات أن تضعها في اعتبارها. يجادل منتقدو التكنولوجيا بأن الشركات ستطبق الذكاء الاصطناعي التوليدي بطرق من شأنها أن تؤدي إلى تدهور حياة العاملين، فيجعلها أصعب وأسوأ. وسيحْسن القادة صنعاً بضمان عدم حدوث ذلك بتعزيز استخدام التكنولوجيات التي تجعل حياة العاملين أسهل وأقل إرهاقاً وأكثر إنسانية.

يمكن أن يكون الخوف من التفويت FOMO والضغوط التنافسية Competitive pressures مفيدة إذا أبقت المديرين منتبهين للتغيرات المحيطة بهم، لكن ينبغي ألا يسمحوا لهذه المخاوف بتوجيههم إلى قرارات غير عقلانية وغير حكيمة. من المرجح جداً أن تتبع الإثارة حول الذكاء الاصطناعي التوليدي مسار الحماسة المناصرة للتكنولوجيات الرقمية الأخرى الموضحة في كتاب هل يهم؟ Does IT Matter? لنيكولاس كار Nicholas Carr المنشور في العام 2004، ففي الأغلب يؤدي اعتماد التكنولوجيات الرقمية إلى توليد مزايا قصيرة الأمد داخل قطاع ما، لكن هذه المزايا تتلاشى مع تحول التكنولوجيات إلى أن تصبح هي القاعدة – أي جزء من المشهد المؤسسي، مثل أدوات تحرير النصوص Text editors وجداول البيانات Spreadsheets وأنظمة إدارة علاقات العملاء Customer relationship management systems.

بعبارة أخرى: لا يوجد حالياً أي دليل على أن شركتكم ستتخلف استراتيجياً أو حتى تتزعزع Disrupted إذا ضغطتم على زر التوقف، وذلك لتطوير مسار عمل مدروس بدلاً من القفز أولاً إلى الذكاء الاصطناعي التوليدي. في هذا السياق يُنصَح القادة بالتركيز على الأهداف الأساسية لأعمالهم، والسؤال: ”هل سيساعدنا هذا النظام على تحقيق غاياتنا؟“. إذا قال شخص ما إن النظام سيفعل ذلك، اطلبوا إليه إثبات ذلك. 

لي فـينسل Lee Vinsel

لي فـينسل Lee Vinsel

(@sts_news) أستاذ مشارك في العلوم والتكنولوجيا والمجتمع في جامعة فرجينيا للتكنولوجيا Virginia Tech؛ ومضيف الشعوب والأشياء Peoples & Things، وهو بودكاست عن حياة الإنسان مع التكنولوجيا؛ والمؤلف المشارك لـ وهم الابتكار: كيف يزعزع هاجسنا بالجديد العمل الذي يهم أكثر (منشورات: Random House, 2020).

الذكاء الاصطناعي التوليدي

لي فينسل

اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى