دراسة تكشف: مجرمو الإنترنت يستغلون ChatGPT-4o في عمليات احتيال مالي عبر التزييف الصوتي العميق -
الرئيسية » دراسة تكشف: مجرمو الإنترنت يستغلون ChatGPT-4o في عمليات احتيال مالي عبر التزييف الصوتي العميق

دراسة تكشف: مجرمو الإنترنت يستغلون ChatGPT-4o في عمليات احتيال مالي عبر التزييف الصوتي العميق

ChatGPT-4o

مع التقدم المتسارع في تكنولوجيا الذكاء الاصطناعي، تتنامى تحديات الأمان الرقمي بشكل ملحوظ، حيث كشفت دراسة حديثة أن مجرمي الإنترنت بدأوا باستغلال قدرات نموذج ChatGPT-4o الجديد من OpenAI في تنفيذ عمليات احتيال مالي عبر التزييف الصوتي العميق. تُظهر هذه الدراسة أن رغم تزويد النموذج بآليات أمان متطورة، إلا أن بعض المحتالين نجحوا في تجاوزها عبر استخدام تقنيات بسيطة وفعّالة. هذا التقرير يسلط الضوء على تفاصيل هذه العمليات ونسب نجاحها، ويبرز الجهود المستمرة لمكافحة هذه التهديدات.

كيف يستغل المحتالون واجهة ChatGPT-4o الصوتية لتحقيق مكاسب مالية؟

في دراسة حديثة نشرتها جامعة إلينوي، أُشير إلى أن مجرمي الإنترنت قد وجدوا طرقًا لاستغلال واجهة برمجة التطبيقات الصوتية لنموذج ChatGPT-4o لتحقيق مكاسب مالية. يُعد هذا النموذج من أحدث إصدارات OpenAI، ويمتاز بقدرته على استيعاب وإنتاج النصوص، الأصوات، والمرئيات. وعلى الرغم من دمج OpenAI لآليات أمان متعددة تهدف إلى منع إساءة استخدام المحتوى، إلا أن التحدي يكمن في التطورات التقنية السريعة في التزييف الصوتي العميق، حيث تقدّر خسائر الاحتيال المرتبط به بملايين الدولارات.

وسائل الاحتيال المالي باستخدام أدوات ChatGPT-4o وتقنيات التزييف الصوتي

تستعرض الدراسة عدة وسائل للاحتيال المالي تشمل التحويلات المصرفية، سرقة بطاقات الهدايا، تحويل العملات الرقمية، وسرقة بيانات الحسابات عبر البريد الإلكتروني ووسائل التواصل الاجتماعي. ويستغل المحتالون أدوات ChatGPT-4o، التي تدعم الأوامر الصوتية، لتجاوز آليات الأمان وتنفيذ هذه العمليات بدقة، حيث تشمل هذه الأدوات القدرة على التنقل بين صفحات الويب، إدخال البيانات، وإدارة الأكواد المتعلقة بالمصادقة الثنائية. ورغم أن نموذج GPT-4o مصمم للحد من التعامل مع بيانات حساسة، إلا أن الباحثين في الدراسة تمكنوا من تحفيز النموذج على تنفيذ بعض الأوامر الاحتيالية باستخدام تقنيات تحفيزية بسيطة.

نتائج التجارب: نسبة نجاح الاحتيال المالي باستخدام ChatGPT-4o

أظهرت تجارب الباحثين أن معدلات نجاح عمليات الاحتيال المالي عبر ChatGPT-4o تراوحت بين 20% و 60% حسب نوع العملية؛ إذ سجلت نسبة نجاح عالية بلغت 60% في عمليات سرقة بيانات Gmail، و40% في سرقة بيانات إنستاجرام وتحويل العملات الرقمية. وتظهر الدراسة أن هذه العمليات تتطلب عدة خطوات، تصل في بعض الحالات إلى 26 خطوة عبر المتصفح وتستغرق نحو ثلاث دقائق. ومن الملفت أن تكلفة تنفيذ هذه العمليات تُعتبر منخفضة نسبيًا، حيث تبلغ تكلفة العملية الناجحة 0.75 دولار أمريكي، بينما ترتفع إلى 2.51 دولار للتحويلات المصرفية المعقدة.

OpenAI تستجيب وتؤكد تحسينات جديدة لمكافحة الاحتيال

أصدرت شركة OpenAI بيانًا عبر موقع BleepingComputer التقني، مشيرةً إلى أن النموذج “o1-preview” الأحدث يتمتع بقدرات متقدمة لمقاومة الاحتيال مقارنةً بنماذجها السابقة، مع تحقيقه نسبة أمان بلغت 93% مقارنة بـ 71% في نموذج GPT-4o. وتؤكد الشركة أن الأبحاث الأكاديمية، مثل دراسة جامعة إلينوي، تساعدها في تطوير المزيد من أدوات الحماية، مشيرة إلى تعزيز آليات الأمان في النماذج المستقبلية. كما تقوم OpenAI بتقييد توليد الأصوات بمجموعة محددة من الأصوات المُصرّح بها لضمان عدم استخدامها في التزييف الصوتي.

للمزيد من  أخبار الذكاء الاصطناعي اضغط هنا

مقالات ذات صلة:

فكرتين عن“دراسة تكشف: مجرمو الإنترنت يستغلون ChatGPT-4o في عمليات احتيال مالي عبر التزييف الصوتي العميق”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Scroll to Top