الذكاء الاصطناعي في خدمة قراصنة المعلوماتية

يخشى مراقبون من إمكان أن تسهّل روبوتات الدردشة وبرامج التزوير القائمة على الذكاء الاصطناعي عمل الجهات الضالعة في الجرائم الإلكترونية وعمليات الاحتيال عبر الإنترنت، بعدما أصبحت متاحة منذ حوالي سنة للاستخدام العام، من دون أن تُحدث تغييرات جذرية على صعيد هجمات المعلوماتية التقليدية.

تتمثل عملية "التصيد الاحتيالي" ("فيشينغ") بالاتصال بشخص مستهدف وجعله يُدخل البيانات الخاصة به على موقع مقرصن يشبه المواقع الأصلية.

ويشرح جيروم بيلوا، وهو خبير في أمن المعلوماتية في شركة الاستشارات "وايفستون" ومؤلف كتاب عن الهجمات السيبرانية "الذكاء الاصطناعي يسهل ويسرع وتيرة الهجمات" من خلال إرسال رسائل إلكترونية مقنعة وخالية من الأخطاء الإملائية.

ويتبادل القراصنة بذلك خططا تمكّنهم من توليد رسائل احتيالية محددة الهدف بشكل تلقائي، بواسطة منتديات عبر الإنترنت أو رسائل خاصة.

وللتغلب على القيود التي وضعها مقدمو الحلول بشأن الذكاء الاصطناعي، تسوّق مجموعات متخصصة منذ هذا الصيف نماذج لغوية مدربة على إنتاج محتويات خبيثة، على غرار تطبيق "فرود جي بي تي". لكن لا يزال يتعين إثبات فعاليتها.

ويحذر بيلوا "لا نزال في البداية فقط".

يُعتبر الذكاء الاصطناعي التوليدي واحدا من التهديدات الخمسة الرئيسية التي تهابها الشركات، وفق دراسة حديئة أصدرتها شركة "غارتنر" الأميركية.

وتخشى الشركات خصوصا في هذا المجال تسريب البيانات الحساسة التي يتناقلها موظفوها، الأمر الذي دفع شركات كبرى، ومنها "آبل" و"أمازون" و"سامسونغ" إلى منع موظفيها من استخدام "تشات جي بي تي".

وتوضح مديرة الأبحاث في "غارتنر" ران شو أن "كل معلومة يتم إدخالها على أداة الذكاء الاصطناعي التوليدي يمكن أن تدخل في مساره التعلّمي، وهذا ما قد يجعل معلومات حساسة أو سرية تظهر في نتائج عمليات بحث مستخدمين آخرين".

وأطلقت شركة "أوبن ايه آي"، المطورة لبرنامج "تشات جي بي تي"، في آب/ أغسطس الماضي النسخة المحترفة "تشات جي بي تي إنتربريز" التي لا تستعمل الدردشات من أجل التعلّم بغية تطمين الشركات التي تخشى تسريب معلوماتها.

من جهتها، توصي شركة "غوغل" موظفيها بعدم إدخال معلومات سرية أو حساسة في برنامج الدردشة الآلي الخاص بها، "بارد".

يتمثل التهديد الرئيسي الجديد للذكاء الاصطناعي بسهولة نسخ الوجوه والأصوات وتوليد ما يطابقها تماما. فمن خلال تسجيل لا تتجاوز مدته بضع ثوان، تسمح بعض الأدوات عبر الإنترنت بتوليد نسخة مطابقة تماما قد يقع ضحيتها الزملاء أو الأقارب.

ويعتبر مؤسس شركة "أوبفور انتلجنس" جيروم سايز أن هذه الأدوات قد تُستخدم بسرعة من جانب "مجموعة كاملة من الجهات الضالعة في عمليات احتيال صغيرة، لها وجود فعال في فرنسا وغالبًا ما تكون وراء حملات خبيثة تستعمل الرسائل النصية" بهدف الحصول على أرقام البطاقات المصرفية.

ويضيف "هؤلاء المخالفون الصغار، الذين يكونون بالإجمال من فئة الشباب، سيتمكنون وبسهولة من تقليد الأصوات".

وفي حزيران/يونيو، وقعت أم أميركية ضحية احتيال إثر اتصال رجل بها للمطالبة بفدية لقاء تسليمها ابنتها الذي زعم أنها مخطوفة، وقد عمد الرجل إلى إسماعها ما ادعى أنه صراخ ابنتها الضحية. وانتهى الحادث من دون وقوع أضرار، بعد أن اشتبهت الشرطة في أن الحادثة تشكل عملية احتيال تعتمد على الذكاء الاصطناعي.

ويشرح بيلوا أنه، بالنسبة للشركات التي باتت على دراية بأساليب احتيالية مستخدمة على نطاق واسع تقوم على انتحال محتالين صفة الرئيس التنفيذي للشركة للحصول على تحويلات مالية، فإن "استخدام مقتطف صوتي أو فيديو مزيف"، من قبل المقرصن "يمكن أن يقلب مسار الأحداث لصالح" هذا الأخير.

ويعتقد سايز أنّ "أيا من الهجمات التي نجحت في العام الماضي لا يدفع إلى الاعتقاد بأنها نتيجة استخدام الذكاء الاصطناعي التوليدي".

ورغم أن روبوتات الدردشة قادرة على تحديد بعض العيوب وتوليد أجزاء رموز معلوماتية خبيثة، إلا أنها عاجزة عن تنفيذها مباشرة.

في المقابل، يرى سايز أن الذكاء الاصطناعي "سيسمح لأشخاص محدودي الموهبة بتحسين مهاراتهم"، مستبعدا في المقابل أن يتمكن "الذين يبدأون من الصفر من تطوير برامج مشفرة باستخدام تشات جي بي تي".