كيف يسهل الذكاء الاصطناعي الجرائم الإلكترونية؟
يتمثل التهديد الرئيس للذكاء الاصطناعي، بسهولة نسخ الوجوه والأصوات وتوليد ما يطابقها، فمن خلال تسجيل لا تتجاوز مدته بضع ثوان، تسمح بعض الأدوات عبر الإنترنت، بتوليد نسخة مطابقة، قد يقع ضحيتها الزملاء أو الأقارب.

السياق
يخشى مراقبون أن تسهّل روبوتات الدردشة وبرامج التزوير القائمة على الذكاء الاصطناعي، عمل الجهات الضالعة في الجرائم الإلكترونية، وعمليات الاحتيال عبر الإنترنت، بعدما أصبحت متاحة منذ نحو سنة للاستخدام، من دون أن تُحدث تغييرات جذرية على صعيد هجمات المعلوماتية التقليدية.
أدوات أفضل لـ"التصيد الاحتيالي"
تتمثل عملية التصيد الاحتيالي، بالاتصال بشخص مستهدف، وجعله يُدخل البيانات الخاصة به، بموقع مقرصن يشبه المواقع الأصلية.
ويشرح جيروم بيلوا، وهو خبير بأمن المعلوماتية في شركة الاستشارات "وايفستون"، مؤلف كتاب عن الهجمات السيبرانية لوكالة فرانس برس: "الذكاء الاصطناعي يسهل ويسرع وتيرة الهجمات" من خلال رسائل إلكترونية مقنعة وخالية من الأخطاء الإملائية.
ويتبادل القراصنة بذلك خططاً تمكّنهم من توليد رسائل احتيالية محددة الهدف بشكل تلقائي، بمنتديات عبر الإنترنت أو رسائل خاصة.
وللتغلب على القيود التي وضعها مقدمو الحلول بشأن الذكاء الاصطناعي، تسوّق مجموعات متخصصة نماذج لغوية مدربة على إنتاج محتويات خبيثة، على غرار تطبيق "فرود جي بي تي"، لكن يتعين إثبات فعاليتها.
ويحذر بيلوا: "لا نزال في البداية فقط".
خطر تسريب البيانات
يُعد الذكاء الاصطناعي التوليدي، من التهديدات الخمسة الرئيسة التي تهابها الشركات، وفق دراسة حديئة لشركة غارتنر الأمريكية.
وتخشى الشركات -خصوصاً في هذا المجال- تسريب البيانات الحساسة التي يتناقلها موظفوها، الأمر الذي دفع شركات كبرى، منها "آبل" و"أمازون" و"سامسونغ" إلى منع موظفيها من استخدام "شات جي بي تي".
وتوضح مديرة الأبحاث في "غارتنر" ران شو أن "كل معلومة تدخل على أداة الذكاء الاصطناعي التوليدي، يمكن أن تدخل في مساره التعلّمي، وهذا ما قد يجعل معلومات حساسة أو سرية تظهر في نتائج عمليات بحث مستخدمين آخرين".
وأطلقت "أوبن إيه آي"، المطورة لـ "شات جي بي تي"، في أغسطس الماضي النسخة المحترفة "شات جي بي تي إنتربريز" التي لا تستعمل الدردشات للتعلّم، لتطمين الشركات التي تخشى تسريب معلوماتها.
من جهتها، توصي "غوغل" موظفيها بعدم إدخال معلومات سرية أو حساسة في برنامج الدردشة الآلي الخاص بها "بارد".
تزوير بالصوت والصورة
يتمثل التهديد الرئيس للذكاء الاصطناعي، بسهولة نسخ الوجوه والأصوات وتوليد ما يطابقها، فمن خلال تسجيل لا تتجاوز مدته بضع ثوان، تسمح بعض الأدوات عبر الإنترنت، بتوليد نسخة مطابقة، قد يقع ضحيتها الزملاء أو الأقارب.
ويرى مؤسس "أوبفور إنتلجنس" جيروم سايز أن هذه الأدوات قد تُستخدم بسرعة من جانب "جهات ضالعة في عمليات احتيال صغيرة، لها وجود فعال في فرنسا وغالبًا ما تكون وراء حملات خبيثة تستعمل الرسائل النصية" للحصول على أرقام البطاقات المصرفية.
ويضيف لوكالة فرانس برس: "هؤلاء المخالفون الصغار، الذين يكونون بالإجمال من فئة الشباب، سيتمكنون بسهولة من تقليد الأصوات".
وفي يونيو، وقعت أم أمريكية ضحية احتيال، إثر اتصال رجل بها للمطالبة بفدية، لتسليمها ابنتها الذي زعم أنها مخطوفة، وقد عمد الرجل إلى إسماعها ما ادعى أنه صراخ ابنتها الضحية.
وانتهت الحادثة من دون أضرار، بعد أن اشتبهت الشرطة بأنها عملية احتيال، تعتمد على الذكاء الاصطناعي.
ويشرح بيلوا أنه، بالنسبة للشركات التي على دراية بأساليب احتيالية مستخدمة على نطاق واسع، تقوم على انتحال محتالين صفة الرئيس التنفيذي للشركة، للحصول على تحويلات مالية، فإن "استخدام مقتطف صوتي أو فيديو مزيف"، من المقرصن "يمكن أن يقلب مسار الأحداث لصالح الأخير".
قراصنة مبتدئون
ويعتقد سايز أنّ "أياً من الهجمات التي نجحت العام الماضي لا يدفع إلى الاعتقاد بأنها نتيجة استخدام الذكاء الاصطناعي التوليدي".
ورغم أن روبوتات الدردشة قادرة على تحديد بعض العيوب وتوليد أجزاء رموز معلوماتية خبيثة، فإنها عاجزة عن تنفيذها.
في المقابل، يرى سايز أن الذكاء الاصطناعي "سيسمح لمحدودي الموهبة بتحسين مهاراتهم"، مستبعداً -في المقابل- أن يتمكن "الذين يبدأون من الصفر من تطوير برامج مشفرة باستخدام شات جي بي تي".