واشنطن - وكالات: أظهرت دراسة حديثة أن واجهة برمجة التطبيقات الصوتية لمساعد" ChatGPT-4o " من" OpenAI" قد يستغلها مجرمو الإنترنت لتنفيذ عمليات احتيال، لافتة إلى أن معدلات نجاح هذه العمليات تتراوح بين منخفضة ومتوسطة، وفق البوابة العربية للأخبار التقنية.
ويعد" ChatGPT-4o" أحدث نموذج ذكاء اصطناعي، ويتميز بقدرته على استيعاب النصوص، والأصوات، والمرئيات، وإخراجها. وللحد من إساءة الاستخدام، دمجت" OpenAI" آليات أمان عدة تهدف إلى اكتشاف المحتوى الضار، ومنع تكرار الأصوات غير المُصرّح بها.
غير أنه مع ازدياد انتشار تقنيات التزييف الصوتي العميق، وأدوات تحويل النص صوتاً، تتفاقم مشكلة الاحتيال الصوتي التي تقدر خسائرها بالملايين.
ونشر باحثون من جامعة "إلينوي" الاميركية ورقة بحثية تبين أن الأدوات التقنية الحديثة المتاحة للجمهور تفتقر إلى آليات حماية كافية من إساءة استخدامها في عمليات الاحتيال.
كما استعرضت الدراسة أنواعاً متعددة من عمليات الاحتيال، منها التحويلات المصرفية، وسرقة بطاقات الهدايا، وتحويل العملات الرقمية، وسرقة بيانات حسابات التواصل الاجتماعي، والبريد الإلكتروني.
0 تعليق