التقدم الكبير للذكاء الاصطناعي في هجمات التصيد: لماذا يمكن أن يقع حتى الخبراء ضحية لها؟

0

آيتي نيوز (التقدم الكبير للذكاء الاصطناعي في هجمات التصيد) – لم يعد التطور في مجال الذكاء الاصطناعي يقتصر على المجالات الصناعية والتكنولوجية، بل أصبح يُحدث تغييرات جوهرية في أساليب مجرمي الإنترنت، مما يثير قلقًا متزايدًا بين خبراء الأمن السيبراني. واحدة من أبرز هذه التوجهات المقلقة هي استخدام الذكاء الاصطناعي لتطوير حملات التصيّد، حيث تُصبح أكثر دقة وفعالية في استهداف الأفراد، إلى جانب قدرتها على التمويه والتخفي بشكل شبه كامل. وفي هذا السياق، تسلّط شركة “كاسبرسكي” الضوء على كيفية تسخير الذكاء الاصطناعي لتحسين تقنيات التصيّد، ولماذا يُمكن أن يقع حتى الموظفون الأكثر دراية في فخاخ هذه الهجمات.

تشير دراسة حديثة أجرتها “كاسبرسكي” إلى أن عدد الهجمات الإلكترونية التي تعرضت لها الشركات خلال الأشهر الاثني عشر الماضية قد ارتفع بنسبة تقارب النصف. وأظهرت نتائج الدراسة أن 49٪ من المشاركين أبلغوا عن زيادة ملحوظة في حجم هذه الهجمات، مع الإشارة إلى أن التصيّد يُعدّ من بين أكثر التهديدات شيوعًا، حيث أفاد 49٪ من المشاركين بوقوع حوادث تصيّد لديهم. ومع زيادة اعتماد مجرمي الإنترنت على تقنيات الذكاء الاصطناعي، يتوقع نصف المشاركين في الدراسة أن يشهدوا تصاعدًا كبيرًا في عدد هجمات التصيّد خلال الفترة المقبلة.

كيف يُسهم الذكاء الاصطناعي في تطوير تقنيات التصيّد، ولماذا لا تكفي الخبرة وحدها لتجنب الوقوع في الفخ؟

تخصيص الهجمات باستخدام الذكاء الاصطناعي

تقليديًا، اعتمدت هجمات التصيّد على إرسال رسائل بريد إلكتروني عامة إلى أعداد كبيرة من الأشخاص على أمل أن يقع بعضهم في الشرك. إلا أن الذكاء الاصطناعي أحدث تحولًا نوعيًا في هذا النهج، حيث أصبح بإمكانه توليد رسائل تصيّد مخصصة للغاية تستهدف الأفراد بشكل دقيق، مع الحفاظ على إمكانية توزيعها على نطاق واسع. من خلال تحليل البيانات المتاحة علنًا عبر وسائل التواصل الاجتماعي، ومواقع التوظيف، والمواقع الإلكترونية للشركات، يستطيع الذكاء الاصطناعي صياغة رسائل تبدو وكأنها مصممة خصيصًا لمستلميها، سواء من حيث الدور الوظيفي، أو الاهتمامات، أو حتى أسلوب التواصل الشخصي. فعلى سبيل المثال، قد يتلقى المدير المالي رسالة بريد إلكتروني مُزيفة تبدو وكأنها مرسلة من المدير التنفيذي للشركة، وتشير إلى أحداث أو قضايا حديثة داخل المؤسسة. هذا المستوى العالي من التخصيص يجعل من الصعب للغاية على الموظفين التفريق بين الرسائل الحقيقية وتلك الاحتيالية.

تقنية التزييف العميق (Deepfake)

لم تتوقف إسهامات الذكاء الاصطناعي عند تخصيص الرسائل، بل توسعت لتشمل تقنية “التزييف العميق”، التي أصبحت أداة قوية في أيدي مجرمي الإنترنت. تُستخدم هذه التقنية بشكل متزايد لإنشاء مقاطع صوتية وفيديو تبدو حقيقية تمامًا، بهدف تقليد صوت ومظهر الشخصيات المستهدفة. على سبيل المثال، في إحدى الحوادث الموثقة، نجح المهاجمون في استخدام تقنية التزييف العميق لانتحال هوية موظفين أثناء مكالمة فيديو، وتمكنوا من إقناع أحد الموظفين بتحويل 25.6 مليون دولار. ومع استمرار تطور تقنية “التزييف العميق”، يُتوقع أن تصبح هذه الهجمات أكثر انتشارًا وصعوبة في الكشف عنها.

لماذا الخبرة ليست كافية؟

حتى أكثر الموظفين خبرةً واطلاعًا على مخاطر الأمن السيبراني قد يقعون ضحية لهذه الهجمات المعقدة. ذلك لأن المستوى العالي من الواقعية والتخصيص الذي توفره تقنيات الذكاء الاصطناعي يتجاوز في كثير من الأحيان الحدس والحذر الذي يتمتع به هؤلاء الموظفون. علاوة على ذلك، تعتمد هذه الهجمات بشكل كبير على استغلال الجوانب النفسية للبشر، مثل خلق إحساس بالإلحاح، أو إثارة الخوف، أو اللعب على وتر السلطة، مما يدفع الموظفين إلى اتخاذ قرارات متسرعة دون التحقق الكافي.

مواجهة التصيّد المدعوم بالذكاء الاصطناعي

للتصدي لهذه الهجمات المتقدمة، يجب على المؤسسات اعتماد نهج شامل ومتعدد الطبقات يركز على تعزيز الأمن السيبراني. يعتبر تدريب الموظفين بشكل منتظم ومحدث على اكتشاف تقنيات التصيّد المعتمدة على الذكاء الاصطناعي أمرًا بالغ الأهمية، حيث يساعدهم ذلك على التعرف على العلامات الدقيقة التي قد تشير إلى وجود تهديد. وفي الوقت ذاته، ينبغي على الشركات استخدام أدوات أمنية متطورة قادرة على اكتشاف الأنماط غير المألوفة في رسائل البريد الإلكتروني، مثل وجود تغييرات في أسلوب الكتابة أو بيانات وصفية مشبوهة.

كما يلعب نموذج “الثقة الصفرية” دورًا حاسمًا في تقليل الخسائر المحتملة لأي هجوم ناجح. عبر تقييد الوصول إلى البيانات والأنظمة الحساسة، يضمن هذا النموذج أن أي اختراق محتمل لن يؤثر على الشبكة بأكملها. من خلال الجمع بين تقنيات الأمان المتقدمة والمراقبة البشرية الدقيقة، يمكن للشركات بناء استراتيجية دفاعية فعالة قادرة على مواجهة التهديدات الإلكترونية المتطورة.