الذكاء الاصطناعي في خدمة قراصنة المعلوماتية

يخشى مراقبون من إمكان أن يسهّل آليّو الدردشة وبرامج التزوير القائمة على الذكاء الاصطناعي عمل الجهات الضالعة في الجرائم الإلكترونية وعمليات الاحتيال عبر الإنترنت، بعدما أصبحت متاحة منذ نحو سنة للاستخدام العام، من دون أن تُحدث تغييرات جذرية على صعيد هجمات المعلوماتية التقليدية.

أدوات أفضل لـ”التصيد الاحتيالي”

تتمثل عملية “التصيد الاحتيالي” (فيشينغ) في الاتصال بشخص مستهدف وجعله يُدخل البيانات الخاصة به على موقع مقرصن يشبه المواقع الأصلية.

ويشرح جيروم بيلوا، وهو خبير في أمن المعلوماتية في شركة الاستشارات “وايفستون” ومؤلف كتاب عن الهجمات السيبرانية، “الذكاء الاصطناعي يسهل ويسرع وتيرة الهجمات”، من خلال إرسال رسائل إلكترونية مقنعة وخالية من الأخطاء الإملائية.

ويتبادل القراصنة بذلك خططاً تمكّنهم من توليد رسائل احتيالية محددة الهدف بشكل تلقائي، بواسطة منتديات عبر الإنترنت أو رسائل خاصة.

وللتغلب على القيود التي وضعها مقدمو الحلول بشأن الذكاء الاصطناعي، تسوّق مجموعات متخصصة منذ هذا الصيف نماذج لغوية مدربة على إنتاج محتويات خبيثة، على غرار تطبيق “فرود جي بي تي”. لكن لا يزال يتعين إثبات فاعليتها.

ويحذر بيلوا “لا نزال في البداية فقط”.

خطر تسريب البيانات

يُعتبر الذكاء الاصطناعي التوليدي واحداً من التهديدات الخمسة الرئيسية التي تهابها الشركات، وفق دراسة حديثة أصدرتها شركة “غارتنر” الأمريكية.

وتخشى الشركات خصوصاً في هذا المجال، تسريب البيانات الحساسة التي يتناقلها موظفوها، الأمر الذي دفع شركات كبرى، ومنها “آبل” و”أمازون” و”سامسونغ” إلى منع موظفيها من استخدام “تشات جي بي تي”.

وتوضح مديرة الأبحاث في “غارتنر”، ران شو، أن “كل معلومة يتم إدخالها على أداة الذكاء الاصطناعي التوليدي يمكن أن تدخل في مساره التعلّمي، وهذا ما قد يجعل معلومات حساسة أو سرية تظهر في نتائج عمليات بحث مستخدمين آخرين”.

وأطلقت شركة “أوبن ايه آي”، المطورة لبرنامج “تشات جي بي تي”، في غشت الماضي النسخة المحترفة “تشات جي بي تي انتربريز” التي لا تستعمل الدردشات من أجل التعلّم بغية تطمين الشركات التي تخشى تسريب معلوماتها.

من جهتها، توصي شركة “غوغل” موظفيها بعدم إدخال معلومات سرية أو حساسة في برنامج الدردشة الآلي الخاص بها، “بارد”.

تزوير بالصوت والصورة

يتمثل التهديد الرئيسي الجديد للذكاء الاصطناعي في سهولة نسخ الوجوه والأصوات وتوليد ما يطابقها تماماً. فمن خلال تسجيل لا تتجاوز مدته بضع ثوان، تسمح بعض الأدوات عبر الإنترنت بتوليد نسخة مطابقة تماماً قد يقع ضحيتها الزملاء أو الأقارب.

ويعتبر مؤسس شركة “أوبفور انتلجنس”، جيروم سايز، أن هذه الأدوات قد تُستخدم بسرعة من جانب مجموعة كاملة من الجهات الضالعة في عمليات احتيال صغيرة، لها وجود فاعل في فرنسا، وغالبا ما تكون وراء حملات خبيثة تستعمل الرسائل النصية، بهدف الحصول على أرقام البطاقات المصرفية.

ويضيف “هؤلاء المخالفون الصغار، الذين يكونون بالإجمال من فئة الشباب، سيتمكنون وبسهولة من تقليد الأصوات”.

وفي يونيو، وقعت أم أمريكية ضحية احتيال إثر اتصال رجل بها للمطالبة بفدية لقاء تسليمها ابنتها الذي زعم أنها مخطوفة، وقد عمد الرجل إلى إسماعها ما ادعى أنه صراخ ابنتها الضحية. وانتهى الحادث من دون وقوع أضرار، بعد أن اشتبهت الشرطة في أن الحادثة تشكل عملية احتيال تعتمد على الذكاء الاصطناعي.

ويشرح بيلوا أنه بالنسبة إلى الشركات التي باتت على دراية بأساليب احتيالية مستخدمة على نطاق واسع تقوم على انتحال محتالين صفة الرئيس التنفيذي للشركة للحصول على تحويلات مالية، فإن “استخدام مقتطف صوتي أو فيديو مزيف”، من قبل المقرصن “يمكن أن يقلب مسار الأحداث لصالح” هذا الأخير.

قراصنة مبتدئون

ويعتقد سايز أنّ “أياً من الهجمات التي نجحت في العام الماضي لا يدفع إلى الاعتقاد بأنها نتيجة استخدام الذكاء الاصطناعي التوليدي”.

ورغم أن آلية الدردشة قادرة على تحديد بعض العيوب وتوليد أجزاء رموز معلوماتية خبيثة، إلا أنها عاجزة عن تنفيذها مباشرة.

في المقابل، يرى سايز أن الذكاء الاصطناعي “سيسمح لأشخاص محدودي الموهبة بتحسين مهاراتهم”، مستبعداً في المقابل أن يتمكن “الذين يبدؤون من الصفر من تطوير برامج مشفرة باستخدام تشات جي بي تي”.

Total
0
Shares
المنشورات ذات الصلة