نبرات شبه حقيقية.. عمليات الاحتيال عبر استنساخ الصوت بالذكاء الاصطناعي تثير القلق

يشير الخبراء إلى أنّ الخطر الأبرز للذكاء الاصطناعي، يتمثّل في قدرة هذه التقنية على تبديد الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فعّالة وغير مكلفة.

نبرات شبه حقيقية.. عمليات الاحتيال عبر استنساخ الصوت بالذكاء الاصطناعي تثير القلق

السياق

انتابت امرأة حالة من القلق، بعدما سمعت صوت كريمتها تبكي في مكالمة هاتفية، يزعم رجل فيها أنه خطف الفتاة ويطالب بفدية، إلا أنّ نبرة صوت الابنة لم تكن حقيقية، بل مُبتكرة بتقنية الذكاء الاصطناعي، في محاولة للقيام بعملية احتيال، وهي مسألة مُقلقة تبرز مع هذه التكنولوجيا التي تشهد ازدهاراً في المرحلة الراهنة.

ويشير الخبراء إلى أنّ الخطر الأبرز للذكاء الاصطناعي، يتمثّل في قدرة هذه التقنية على تبديد الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فعّالة وغير مكلفة.

 

تسليط الضوء

تثير عمليات احتيال هاتفية حديثة، باستخدام أدوات النسخ الصوتي المُستندة إلى الذكاء الاصطناعي والمتاحة بسهولة عبر الإنترنت، قلق السلطات الأميركية.

وتسمع جينيفر ديستيفانو، وهي أم تقيم في أريزونا، عبر الهاتف صوتاً يقول "ساعديني يا أمي، أرجوكِ ساعديني".

وصدّقت الوالدة، أنّ الصوت لابنتها البالغة 15 عاماً، التي خرجت لممارسة للتزلج.

وتقول لمحطة تلفزيونية محلية، في حديث يعود إلى أبريل: "كان الصوت مطابقاً لصوت ابنتي مع طريقة بكائها نفسها"، مضيفةً: "لم أشك للحظة في أنها قد لا تكون هي".

وطلب المحتال الذي اتّصل بالوالدة من رقم مجهول، الحصول على مليون دولار لإطلاق سراح الفتاة.

وراهناً، تخضع هذه الحادثة، التي وصلت إلى نهايتها سريعاً، بعدما تمكّنت ديستيفانو من التواصل مع ابنتها، إلى تحقيق من السلطات المختصة، وكان لها دور في تسليط الضوء على عمليات الاحتيال المحتملة بفعل استخدام مجرمي الإنترنت برامج الذكاء الاصطناعي.

 

عمليات تزييف مقنعة

يؤكّد المدير التنفيذي لشركة بلاكبيرد. إيه آي، وسيم خالد، إلى وكالة فرانس برس، أنّ "النسخ الصوتي عبر الذكاء الاصطناعي، الذي بات من شبه المستحيل تمييزه عن الصوت البشري، يتيح لسيئي النية كالمحتالين، الحصول على معلومات ومبالغ من الضحايا بأسلوب أكثر فعالية ممّا يعتمدون في العادة".

وتتيح تطبيقات كثيرة مجانية ومُتاحة عبر الإنترنت، استنساخ الصوت الفعلي لشخص ما عبر برنامج للذكاء الاصطناعي، يستند إلى تسجيل قصير لصوت هذا الشخص. ويمكن للمحتال أن يحصل على تسجيلات مماثلة من محتويات منشورة من الضحية عبر الإنترنت.

ويقول خالد: "من خلال تسجيل صوتي قصير، يمكن استخدام استنساخ صوتي أُنشئ استناداً إلى الذكاء الاصطناعي، لترك رسائل ومقاطع صوتية يُزعم أنها للضحية. وقد يُستخدم الصوت المُستنسخ أيضاً كصوت مُعدَّل أثناء المكالمات الحية".

ويضيف أنّ "المحتالين يستخدمون لهجات متنوّعة، ويقلّدون الطريقة التي تتحدث بها الضحية"، مؤكداً أنّ هذه التكنولوجيا "تتيح عمليات تزييف مقنعة".

 

عمليات احتيال متزايدة

أظهر استطلاع شمل نحو سبعة آلاف شخص، في تسع دول بينها الولايات المتحدة، أنّ شخصاً من كل أربعة استُهدف بمحاولة احتيال صوتي عبر الذكاء الاصطناعي، أو يعرف شخصاً تعرّض لعملية مماثلة.

وأشار 70% ممّن شملهم الاستطلاع، إلى أنهم لم يكونوا متأكدين من قدرتهم على التمييز بين الصوت الحقيقي وذلك المستنسخ، وفق الاستطلاع الذي نشرته شركة ماك أفي لابز، الشهر الفائت.

وحذرت السلطات الأمريكية من تزايد "عمليات الاحتيال التي تشمل الأجداد".

وقالت لجنة التجارة الفدرالية في تحذيرها: "تتلقون مكالمة يُسمَع فيها صوت حفيدكم وهو مذعور، يقول إنه في ورطة كبيرة عقب تعرضه لحادث سير واحتجازه من الشرطة، لكنّكم قادرون على مساعدته من خلال إرسال الأموال له".

وفي التعليقات التي كُتبت تحت تحذير اللجنة الأمريكية، يشير عدد كبير من المسنّين إلى أنّهم خُدعوا بهذه الطريقة.

 

تقنيات جديدة

واقتنع جدٌّ تعرّض لعملية احتيال بما سمعه، لدرجة أنّه بدأ يجمع الأموال وفكّر في رهن منزله، قبل أن يتبيّن أنّ ما يحصل ليس سوى احتيال.

وفي حديث إلى وكالة فرانس برس، يقول الأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي هاني فريد، إنّ سهولة استنساخ الصوت تعني أن "كل مستخدم للإنترنت معرض للخطر".

ويشير إلى أنّ "عمليات الاحتيال هذه آخذة في الازدياد".

وتعيّن على شركة إيليفن لابس الناشئة، الاعتراف بأنّ أداتها الناسخة للصوت من خلال الذكاء الاصطناعي، يمكن استخدامها لأهداف مسيئة، بعدما نشر عدد من مستخدمي الإنترنت مقطعاً مزيفاً للممثلة إيما واتسون تقرأ مقاطع من كتاب "كفاحي" لأدولف هيتلر.

ويقول غال تال-هوشبيرغ، وهو مسؤول في شركة تيم 8، المتخصصة في الاستثمارات التكنولوجية: "نقترب بسرعة من المرحلة التي لن يعود بإمكاننا فيها الوثوق بالمحتوى المنشور عبر الإنترنت، التي علينا خلالها الاستعانة بتقنيات جديدة، لنتأكّد من أنّ الشخص الذي نعتقد أننا نتحدث معه (عبر الهاتف) هو بالفعل مَن نتواصل معه".