تكنولوجياذكاء اصطناعي
لا تدور أكبر المخاوف بشأن الذكاء الاصطناعي حالياً حول الرؤى الديستوبية Dystopian visions (المتعلقة بالمستقبل البائس) للسادة الآليين الذين يسيطرون على البشرية. بل إنها تدور حول آلات ”تشحن بسرعة فائقة“ السلوكَ البشري السيئ. وخوارزميات وسائل التواصل الاجتماعي Social media algorithms هي واحدة من أبرز الأمثلة.
خذوا يوتيوب YouTube، الذي طبَّق على مر السنين ميزات ومحركات توصية Recommendation engines موجهة نحو إبقاء الأشخاص ملتصقين بشاشاتهم. وكما ذكرت النيويورك تايمز The New York Times في العام 2019 تعلَّم عديد من مُنشئي المحتوى Content creators في أقصى اليمين أنهم يمكنهم تعديل عروض المحتوى الذي ينتجونه لجعله أكثر جاذبية للخوارزمية، ودفع عديدٍ من المستخدمين إلى مشاهدة محتوى أكثر تطرفاً تدريجياً. واتخذ يوتيوب إجراءات رداً على ذلك، بما في ذلك الجهود الرامية إلى إزالة خطاب الكراهية Hate speech. وزعمت دراسة نشرت بنحو مستقل في العام 2019 أن خوارزمية يوتيوب تضطلع بعمل جيد في ثني المشاهدين عن مشاهدة ”محتوى يحض على التطرف أو متطرف“. ومع ذلك، في يوليو 2021، وجدت أبحاث جديدة أن يوتيوب لا يزال يزرع الانقسام، ويساعد على نشر المعلومات المُضلِّلة Disinformation. الضارة.
ووقع تويتر Twitter وفيسبوك Facebook تحت طائلة جدل مماثل. واتخذا أيضاً خطوات مماثلة لمعالجة المعلومات المُضلِّلة والمحتوى الذي يحض على الكراهية. لكن القضية الأولية لا تزال قائمة: هدف الأعمال Business objective هو إبقاء المستخدمين على المنصة Platform. وسيستفيد بعض المستخدمين ومنشئي المحتوى من نماذج الأعمال Business models هذه لدفع المحتوى المثير للإشكاليات.
لقراءة المزيد اشترك في المجلة رقميا أو ادخل حسابك