في عصر الدعاية المدعومة بالذكاء الاصطناعي.. كيف يمكن حماية المجتمعات من التضليل؟
أثبت -شات جي بي تي- الذي يعمل بالذكاء الاصطناعي، الذي يشغل محرك بحث Bing من مايكروسوفت أنه قادر على التلاعب بالمستخدمين، بل وحتى تهديدهم.

ترجمات - السياق
قالت صحيفة فورين أفيرز، إنه منذ تدخل العملاء الروس جزئيًا في الانتخابات الرئاسية الأمريكية لعام 2016، من خلال التظاهر عبر آلاف حسابات وسائل التواصل الاجتماعي المزيفة بأنهم أمريكيون، احتلت تقنية الذكاء الاصطناعي التي لديها القدرة على تسريع انتشار الدعاية، مركز الصدارة.
وأوضحت الصحيفة الأمريكية، في تقرير ترجمته «السياق»، أنه رغم تركيز كثير من المخاوف الأمريكية على مخاطر «التزييف العميق» السمعي والمرئي، الذي يستخدم الذكاء الاصطناعي لابتكار صور أو أحداث لم تحدث، فإن قدرة أخرى للذكاء الاصطناعي تثير القلق بالقدر نفسه.
الباحثون حذروا من أن أنظمة الذكاء الاصطناعي التوليدية المدربة على إنتاج لغة أصلية -باختصار «نماذج اللغة»- يمكن أن يستخدمها خصوم الولايات المتحدة لشن عمليات التأثير، بحسب الصحيفة الأمريكية، التي قالت إن هذه النماذج على وشك تمكين المستخدمين من إنشاء إمدادات غير محدودة تقريبًا من النص الأصلي.
وأشارت إلى أن ذلك يمكن أن يؤدي إلى تحسين قدرة الدعاية على إقناع الناخبين عن غير قصد، وإغراق بيئات المعلومات عبر الإنترنت، وتخصيص رسائل البريد الإلكتروني المخادعة.
وحذرت الصحيفة الأمريكية من أن الخطر يمكن في شقين، فالنماذج اللغوية لن تستطيع فقط التأثير في المعتقدات، بل يمكن أن تؤدي أيضًا إلى تآكل ثقة الجمهور في المعلومات التي يعتمد عليها الأشخاص لتشكيل الأحكام واتخاذ القرارات.
وتقول «فورين أفيرز»، إن التقدم المحرز في أبحاث الذكاء الاصطناعي التوليدية فاق التوقعات، فالعام الماضي، استخدمت نماذج اللغة للتغلب على اللاعبين البشريين، في الألعاب الاستراتيجية التي تتطلب الحوار، وإنشاء مساعدين عبر الإنترنت.
وأشارت إلى أن نماذج لغة المحادثة أصبحت قيد الاستخدام على نطاق واسع بين عشية وضحاها تقريبًا، فأكثر من 100 مليون شخص استخدموا برنامج OpenAI's ChatGPT في أول شهرين بعد إطلاقه، في ديسمبر الماضي، متوقعة أن يستخدم ملايين آخرون أدوات الذكاء الاصطناعي التي قدمتها «غوغل» و«مايكروسوفت» بعد ذلك بوقت قصير.
كيف يمكن مواجهة المخاطر؟
نتيجة لذلك، فإن المخاطر التي بدت نظرية قبل بضع سنوات فقط تبدو واقعية بشكل متزايد، فعلى سبيل المثال، أثبت "chatbot" الذي يعمل بالذكاء الاصطناعي، الذي يشغل محرك بحث Bing من «مايكروسوفت» أنه قادر على التلاعب بالمستخدمين، بل وحتى تهديدهم.
ونظرًا لأن أدوات الذكاء الاصطناعي التوليدية تجتاح العالم، من الصعب تخيل أن المروِّجين لن يستخدموها للكذب والتضليل، بحسب «فورين أفيرز»، التي قالت إن على الحكومات والشركات ومنظمات المجتمع المدني تطوير معايير وسياسات لاستخدام النص الذي أنشئ بواسطة الذكاء الاصطناعي، إضافة إلى تقنيات لمعرفة أصل جزء معين منه.
وأكدت أنه يمكن أيضًا للجهود التي يبذلها الصحفيون والباحثون، للكشف عن حسابات الوسائط الاجتماعية المزيفة والمواقع الإخبارية المزيفة، أن تحد من وصول حملات الدعاية السرية، بصرف النظر عما إذا كان المحتوى بشريًا أو مكتوبًا بواسطة الذكاء الاصطناعي.
مصانع اللغة
نموذج اللغة أحد أنواع أنظمة الذكاء الاصطناعي، يكون التدريب عليه من خلال التجربة والخطأ لاستهلاك نص وإنتاجه، بحسب الصحيفة الأمريكية، التي قالت إن جزءًا كبيرًا من عملية التدريب تتضمن التنبؤ بالكلمة التالية في مجموعة كبيرة من النصوص.
إذا كان التنبؤ خاطئًا، يعاقب النموذج، وإذا كان صحيحًا، سيكافأ، تقول «فورين أفيرز»، مشيرة إلى أن هذه العملية البسيطة «أسفرت عن نتائج مدهشة، فقط اطلب من أحد النماذج إعادة كتابة تغريدة بكلمات مختلفة أو كتابة منشور مدونة يتضمن نقاطًا معينة، وسيفعل ذلك».
وأوضحت الصحيفة الأمريكية، أن النماذج اللغوية تعلمت أشياء مفاجئة لم يتوقعها حتى أولئك الذين دربوها، بما في ذلك حل الكلمات، وإجراء العمليات الحسابية المكونة من ثمانية أرقام، وحل المسائل الرياضية، مشيرة إلى أنه لا يمكن للباحثين التنبؤ -بشكل موثوق- بالقدرات التي قد تحققها النماذج اللغوية المستقبلية.
ورغم ذلك، فإن نماذج اليوم لها حدود، فحتى الأكثر تقدمًا منها يكافح للحفاظ على الاتساق عبر المقاطع الطويلة، والإدلاء ببيانات خاطئة أو سخيفة (وهي ظاهرة أطلق عليها باحثو الذكاء الاصطناعي اسم الهلوسة)، وتعني الفشل في فهم الأحداث التي تكون بعد تدريب النماذج.
ورغم هذه القيود، يمكن للنماذج إنتاج نص يُقرأ غالبًا كما لو أنه كتبه إنسان، ما يجعلها أدوات طبيعية لتوسيع نطاق جيل الدعاية، بحسب الصحيفة الأمريكية، التي قالت إن القائمين على الدعاية سيجدونها أكثر جاذبية.
مزرعة ترول
«ضع في اعتبارك ما يمكن أن يفعله الذكاء الاصطناعي للأجهزة الدعائية الحالية»، كتبت الصحفية الروسية كسينيا كلوشكوفا عن تجربتها في العمل متخفية ليوم واحد في Cyber Front Z، وهي «مزرعة ترول» مقرها سانت بطرسبرغ تنشر دعاية حرب روسيا في أوكرانيا.
وبتحقيق نُشر في مارس 2022، كتبت كلوتشكوفا أنها كانت من 100 موظف يتقاضون رواتبهم لكتابة مشاركات قصيرة على مواقع التواصل الاجتماعي المعينة التي تدفع بأجندة موسكو.
وبعد الشهر الأول، يمكن للموظفين الانتقال عن بُعد، ما يمكّن العملية من التوسع إلى ما وراء نطاق تأثيرها المادي، بحسب الصحيفة الأمريكية، التي قالت إنه يمكن استخدام النماذج اللغوية لزيادة أو استبدال الكتاب البشريين في إنشاء هذا المحتوى، ما يؤدي إلى خفض عدد الموظفين الذين ستحتاجهم Cyber Front Z ومزارع الترول المماثلة لإنتاج المحتوى المطلوب.
إذا انخفضت التكاليف، فقد يقرر مزيد من الفاعلين السياسيين رعاية أو إدارة عمليات التأثير، فمع وجود موظفين أصغر، يقل احتمال اكتشاف هذه الحملات، لأنها ستوظف عددًا أقل، بحسب «فورين أفيرز»، التي قالت إن نماذج اللغة قادرة على إنشاء محتوى قابل للتطوير بثمن بخس، لا يمكن تمييزه عن النص المكتوب بواسطة الإنسان.
عام 2020، أجرى الباحثان سارة كريبس ودوغلاس كرينر تجربة أرسلا فيها للمشرِّعين الأمريكيين رسائل من منظمة العفو الدولية ورسائل مكتوبة بشريًا كما لو كانت من ناخبين، ووجدوا أن احتمال استجابة المشرِّعين للرسائل التي ينشئها الذكاء الاصطناعي أقل بنقطتين مئويتين، مقارنة بالرسائل التي يكتبها الإنسان.
كوارث الذكاء الاصطناعي.. شات جي بي تي يلفق فضيحة جنسية لأستاذ قانون
أين الخطر؟
يكمن الخطر في إمكانية استخدام النماذج اللغوية لإساءة استخدام الأنظمة، التي تأخذ مدخلات من الجمهور أو حتى إرباكها، ما يقوِّض المساءلة الديمقراطية إذا كافح المسؤولون المنتخبون لتمييز آراء ناخبيهم، أو ببساطة فشلوا في التعامل مع البريد الوارد.
إلا أن ذلك لا يعني أن النماذج اللغوية ستطغى على الأنظمة في كل مكان، ففي بعض الحالات، ثبت أنها غير كفء، بحسب الصحيفة الأمريكية التي قالت إن موقع CNET الإخباري التكنولوجي نشر عشرات المقالات الإخبارية التي أنشئت بواسطة الذكاء الاصطناعي، فقط ليكتشف أن عديدًا منها متخم بالحقائق غير الدقيقة.
كان على (ستاك أوفرفلو) وهو نظام أساسي يمكّن المبرمجين من الإجابة عن الأسئلة، منع المستخدمين من استخدام ChatGPT، لأنه استمر في تقديم إجابات غير صحيحة، لكن مع تحسن النماذج اللغوية، سيكون من الصعب تحديد مخرجاتها بناءً على المحتوى وحده.
وعلى المؤسسات المتنوعة، مثل منصات وسائل التواصل الاجتماعي والوكالات الحكومية، التي تسعى إلى الحصول على تعليقات عامة، اختبار ما إذا كانت عرضة للتغلب عليها، من خلال النص الذي أنشئ بواسطة الذكاء الاصطناعي وتقوية دفاعاتها.
وتقول «فورين أفيرز»، إن النماذج اللغوية لا تقدم فقط القدرة على إنتاج مزيد من الدعاية بتكلفة أقل، بل يمكنها أيضًا تحسين جودة الدعاية، من خلال تكييفها مع مجموعات محددة.
وعام 2016، حاول موظفو «مزرعة الترول» الروسية المعروفة باسم وكالة أبحاث الإنترنت، دمج أنفسهم في مجتمعات محددة عبر الإنترنت، متظاهرين بأنهم أمريكيون من ذوي الميول اليسارية والأمريكيين البيض المؤيدين لترامب، لنشر دعاية مخصصة لتلك المجموعات.
ورغم أن جهود انتحال الهوية هذه محدودة، بسبب النطاق الترددي للمشغلين وضرورة معرفتهم بالمجتمعات المستهدفة المحددة، فإنه مع تحسن النماذج اللغوية، يمكن أن تسقط هذه الحواجز، بحسب «فورين أفيرز».
وتظهر الأبحاث المبكرة أن النماذج يمكن أن تطور قدراتها من التجربة الاجتماعية والثقافية لمجموعة ديموغرافية معينة وتعرض تحيزات تلك المجموعة.
وبالنظر إلى الوصول إلى البيانات الدقيقة عن المجتمعات الأمريكية من استطلاعات الرأي أو وسطاء البيانات أو منصات وسائل التواصل الاجتماعي، قد تتمكن نماذج اللغة المستقبلية من تطوير محتوى لشخصية متماسكة، ما يسمح للدعاية ببناء المصداقية مع الجمهور المستهدف، من دون معرفة ذلك الجمهور.
ويمكن أن تكون الدعاية الشخصية فعالة، خارج وسائل التواصل الاجتماعي أيضًا، من خلال رسائل البريد الإلكتروني أو المواقع الإخبارية المخصصة، بحسب «فورين أفيرز»، التي قالت إن الدردشة الفردية قد تكون أكثر أشكال التخصيص تطرفًا.
عمليات التشتيت
وباستخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي، يمكن للدعاية إشراك الأهداف بشكل فردي، ومعالجة مخاوفهم أو الحجج المضادة بشكل مباشر وزيادة احتمالات الإقناع (أو على الأقل التشتيت).
وبحسب «فورين أفيرز»، من الصعب التمييز بين المحاورين البشريين والآلات على الإنترنت، فلقد أظهر أحد المشاريع البحثية الحديثة، أن أحد وكلاء الذكاء الاصطناعي احتل مرتبة متقدمة بين المشاركين في نسخة عبر الإنترنت من لعبة اللوحة الكلاسيكية Diplomacy، التي تتضمن التفاوض مع أشخاص حقيقيين لتشكيل تحالفات.
وأوضحت الصحيفة الأمريكية، أنه إذا كان من الممكن تدريب نماذج اللغة الحالية، لإقناع اللاعبين بالمشاركة في لعبة ما، فقد تتمكن النماذج المستقبلية من إقناع الأشخاص باتخاذ إجراءات الانضمام إلى مجموعة على «فيسبوك»، أو توقيع عريضة، أو حتى الظهور في احتجاج.
ولمعرفة مدى سرعة تحسين نماذج اللغة، ضع في الاعتبار أحد أحدث نماذج «غوغل»، المسمى Flan-PaLM، الذي يمكنه الإجابة -بشكل صحيح- على ما يقرب من تسعة من كل عشرة أسئلة في امتحان الترخيص الطبي بالولايات المتحدة، إضافة إلى إجراء العمليات الحسابية والإجابة عن أسئلة الفيزياء وكتابة الشعر.
كيف يؤثر الذكاء الاصطناعي في الدين؟
أدوات خطرة
تقول «فورين أفيرز»، إن من المحتمل أن تكون أنظمة الذكاء الاصطناعي هذه أدوات خطرة، وهي تزداد قوة فقط، مشيرة إلى أن المرء قد يتساءل عن خطورة التهديد الدعائي الذي تشكله النماذج اللغوية، بالنظر إلى عدد المرات التي بالغ فيها المحللون في تقدير التقنيات الجديدة بمجال الأمن القومي.
وبعد كل شيء، حذر المعلقون من أن الأجيال السابقة من النماذج اللغوية، يمكن أن يساء استخدامها بهذه الطريقة، إلا أنه مع ذلك، هناك قليل من الأدلة على أن الدول شنت عمليات تأثير مدعومة بالذكاء الاصطناعي بهذه الأدوات.
ومع ذلك، فإن عدم وجود دليل على هذه الحملات ليس حُجة على غيابها، فرغم عدم وجود دليل متاح للجمهور على استخدام نماذج اللغة لعمليات التأثير، فإنه لا دليل أيضًا على عدم استخدامها بهذه الطريقة.
وحتى مع افتراض عدم استخدام نماذج اللغة في حملات التأثير السابقة، ليس هناك ما يضمن عدم استخدامها في الحملات المستقبلية، بحسب الصحيفة الأمريكية، التي تحدثت عن تطوير إحدى التقنيات الشائعة لإنشاء الوجوه بواسطة الذكاء الاصطناعي لأول مرة عام 2014.
وأشارت إلى أنه عام 2022، تضمن أكثر من ثلثي عمليات التأثير التي اكتُشفت وأزيلت بواسطة Meta (الشركة الأم لفيسبوك) وجوهًا مزيفة، مضيفة أن الأمر تطلب تحسينات في التكنولوجيا وسهولة الوصول لمروجي الدعاية لجعل استخدامهم عاديًا.
ويمكن أن يحدث الشيء نفسه مع نماذج اللغة، فالشركات تستمر في تحسين مخرجات النماذج اللغوية وجعلها أسهل في الاستخدام، الأمر الذي سيزيد جاذبيتها للدعاية.
تهديد خطير
وأشارت إلى أن السبب الثاني، للشك في أن النماذج اللغوية تشكل تهديدًا خطيرًا يتعلق بفعالية الحملات الدعائية، يتمثل في ما توصلت إليه إحدى الدراسات عن جهود وكالة أبحاث الإنترنت على «تويتر» التي نشرتها مجلةNature Communications.
وقالت المجلة العلمية: «لا دليل على علاقة ذات مغزى بين التعرض لحملة التأثير الأجنبي الروسية والتغييرات في المواقف أو الاستقطاب أو السلوك الانتخابي»، بينما جادل العالم المعرفي هوغو مرسييه بأن الناس أقل سذاجة مما يُعتقد.
لكن حتى لو فشلت الدعاية -في كثير من الأحيان- في الإقناع، لا يزال بإمكانها النجاح في مزاحمة النقاش وتقويض ثقة الجمهور، فعلى سبيل المثال، بعد أن أسقط الانفصاليون المدعومون من روسيا في أوكرانيا رحلة الخطوط الجوية الماليزية رقم 17 في يوليو 2014، قدمت وزارة الدفاع الروسية ادعاءات متناقضة عمن أسقط الطائرة وكيف فعل ذلك.
لم يكن الهدف، على ما يبدو، إقناع الجماهير بأي رواية واحدة، بل إبعاد اللوم عن موسكو، بحسب الصحيفة الأمريكية، التي قالت إنه إذا أغرق المروجون المساحات على الإنترنت بالدعاية التي يولدها الذكاء الاصطناعي، يمكنهم زرع عدم الثقة وجعل من الصعب تمييز الحقيقة.
شروط نجاح التأثير
رغم أن النماذج اللغوية أصبحت أدوات دعاية قوية، فإنها لا تؤدي إلى نهاية العالم، فلتنفيذ حملة تأثير ناجحة مدعومة بالذكاء الاصطناعي، يحتاج المروجون إلى ثلاثة أشياء على الأقل...
أولاً: الوصول إلى نموذج لغة صالح للخدمة، يمكنهم إنشاؤه من البداية، أو سرقته، أو التنزيل من مواقع مفتوحة المصدر، أو الوصول إليه من مزود خدمة الذكاء الاصطناعي.
ثانيًا: في الحاجة إلى بنية تحتية، مثل مواقع الويب أو الحسابات المزيفة على شبكات التواصل الاجتماعي، لنشر دعايتهم.
ثالثًا: الحاجة إلى أشخاص حقيقيين، يتأثرون أو على الأقل يرتبكون أو يحبطون من المحتوى الذي يبثونه.
في كل مرحلة من هذه العملية، تتاح للحكومات والشركات والتقنيين فرصة للتدخل وتخفيف الضرر الذي تسببه هذه الحملات، بحسب الصحيفة الأمريكية، التي قالت إنه في مرحلة الوصول، توجد مجموعة من الخيارات، إما للتحكم في استخدام نماذج اللغة، وإما للحد من قدرتها على إنتاج مخرجات خطيرة.
ورغم أنه من المعتاد في الذكاء الاصطناعي توزيع نماذج المصادر المفتوحة على نطاق واسع بروح العلم، فقد يكون من الحكمة التفكير في معيار يجعل من الصعب الوصول إلى القدرات التي تتطلبها الدعاية.
تتمثل إحدى الطرق في التحكم بالنماذج الموجودة خلف واجهة برمجة التطبيقات، وهي طبقة برمجية تعمل كبوابة بين المستخدمين ونماذج اللغة، من شأنها أن تسمح لمقدمي خدمات الذكاء الاصطناعي (وربما الآخرين) بردع واكتشاف والاستجابة للإمكانات.
وتقول «فورين أفيرز»، إن هناك خيارًا آخر هو تطوير نماذج أكثر دقة وأقل احتمالًا لإنتاج مخرجات إشكالية، وهو ما يفعله الباحثون، مشيرة إلى أنهم يستكشفون أيضًا جدوى إنشاء نماذج بعلامة مائية رقمية، لتسهيل تحديد المحتوى الذي ينتجونه.
وعلى مستوى البنية التحتية، يمكن لشركات الوسائط الاجتماعية ومحركات البحث، العمل بشكل استباقي لتحديد المحتوى الذي أنشئ بواسطة الذكاء الاصطناعي، ومطالبة المستخدمين بالمثل.
كما يمكنهم تمكين تطبيق معايير المصدر الرقمي على النص، ما يسمح للأشخاص بمعرفة كيفية إنتاج النص، ومن ألفه، وما إذا كان قد أنشئ بواسطة الذكاء الاصطناعي.
ورغم أن هذه المعايير تبدو صعبة التنفيذ، فإن مزيدًا من البحث يمكن أن يكشف عن طريق للمضي قدمًا، بحسب الصحيفة الأمريكية، التي قالت إن المجتمعات تحتاج إلى بناء المرونة بين مستخدمي وسائل التواصل الاجتماعي والإنترنت.
ففي فنلندا، تدمج محو الأمية الإعلامية في المناهج الدراسية، منذ الصغر، ليتعلم الفنلنديون تحليل الأخبار التي يستهلكونها والتحقق من الحقائق في مصادر عدة، بجهود يمكن أن تساعد الناس في معرفة الفرق بين الأخبار الحقيقية والمزيفة، بحيث يقل احتمال تأثرهم بالمحتوى غير الجدير بالثقة، سواء أنتج بواسطة البشر أو بالذكاء الاصطناعي.
ويمكن أن يكون الذكاء الاصطناعي نفسه وسيلة دفاع، فعندما تصبح النماذج اللغوية أكثر قدرة، يمكن أن تبدأ مساعدة المستخدمين في وضع سياق للمعلومات التي يرونها وفهمها.
ويتطلب ظهور نماذج لغة الذكاء الاصطناعي حسابًا أوسع، فمن الأسئلة الأساسية التي يجب على المجتمعات الإجابة عنها: من يجب أن يتحكم في الوصول إلى هذه النماذج؟ من المعرض للخطر؟ وهل تقليد الحوار البشري مع الذكاء الاصطناعي مرغوب فيه؟
ورغم صعوبة التنبؤ بتأثيرات النماذج اللغوية المستقبلية، من الواضح أن المستخدمين سيشعرون بها بعيدًا عن مختبرات الذكاء الاصطناعي التي تنشئها، لذا فإنه هناك دورًا على الحكومات والشركات والمجتمع المدني والجمهور بشكل عام، في كيفية تصميم هذه النماذج واستخدامها، ومواجهة المخاطر المحتملة التي تشكلها.