الاثنين، 4 مارس 2024

ديلي ميل ترصد أخطر عمليات الاحتيال عن طريق استنساخ الصوت بالذكاء الاصطناعي

ظهر في الأشهر الأخيرة نوع جديد من التزييف العميق يُعرف باسم "استنساخ الصوت"، حيث يستخدم هاكرز الذكاء الاصطناعي لمحاكاة صوت شخص آخر.تم بالفعل استنساخ أصوات مشاهير مثل ستيفن فراي وصادق خان وجو بايدن، جميعهم كانوا ضحايا لجريمة تقليد أصواتهم بتصريحات تسبب لهم حرجا أو إزعاجا، في حين تم خداع أحد المديرين التنفيذيين، الذي لم يذكر اسمه، لتحويل 243 ألف دولار إلى محتال بعد تلقي مكالمة هاتفية مزيفة، بحسب ما نشرته "ديلي ميل" البريطانية.مدى الإقناعيقول مهندس الحلول الإلكترونية دين شيريتس، في تصرح لـ"ديلي ميل"، إنه لمعرفة كيف تمكن هاكر محترف "باستنساخ صوته" كانت "النتائج مرعبة"، شارحًا أن استنساخ الصوت هو تقنية ذكاء اصطناعي تسمح للهاكرز بأخذ تسجيل صوتي لشخص ما، وتدريب أداة الذكاء الاصطناعي على صوته، وإعادة إنشائه. إن تلك التقنية تم ابتكارها بالأساس لمساعدة "الأشخاص الذين فقدوا أصواتهم لأسباب طبية، ولكن يتم حاليًا استخدامها بشكل متزايد من قبل صناع السينما في هوليوود، وللأسف المحتالين والهاكرز".أكثر سهولة وبأسعار معقولةيضيف شيريتس أنه عندما ظهرت التكنولوجيا لأول مرة في أواخر التسعينيات، كان استخدامهاظهر في الأشهر الأخيرة نوع جديد من التزييف العميق يُعرف باسم "استنساخ الصوت"، حيث يستخدم هاكرز الذكاء الاصطناعي لمحاكاة صوت شخص آخر.

تم بالفعل استنساخ أصوات مشاهير مثل ستيفن فراي وصادق خان وجو بايدن، جميعهم كانوا ضحايا لجريمة تقليد أصواتهم بتصريحات تسبب لهم حرجا أو إزعاجا، في حين تم خداع أحد المديرين التنفيذيين، الذي لم يذكر اسمه، لتحويل 243 ألف دولار إلى محتال بعد تلقي مكالمة هاتفية مزيفة، بحسب ما نشرته "ديلي ميل" البريطانية.

مدى الإقناع يقول مهندس الحلول الإلكترونية دين شيريتس، في تصرح لـ"ديلي ميل"، إنه لمعرفة كيف تمكن هاكر محترف "باستنساخ صوته" كانت "النتائج مرعبة"، شارحًا أن استنساخ الصوت هو تقنية ذكاء اصطناعي تسمح للهاكرز بأخذ تسجيل صوتي لشخص ما، وتدريب أداة الذكاء الاصطناعي على صوته، وإعادة إنشائه. إن تلك التقنية تم ابتكارها بالأساس لمساعدة "الأشخاص الذين فقدوا أصواتهم لأسباب طبية، ولكن يتم حاليًا استخدامها بشكل متزايد من قبل صناع السينما في هوليوود، وللأسف المحتالين والهاكرز".

أكثر سهولة وبأسعار معقولة يضيف شيريتس أنه عندما ظهرت التكنولوجيا لأول مرة في أواخر التسعينيات، كان استخدامها يقتصر على الخبراء ذوي المعرفة المتعمقة بالذكاء الاصطناعي. وبمرور الوقت، أصبحت التكنولوجيا أكثر سهولة وبأسعار معقولة، لدرجة أنه يمكن لأي شخص تقريبًا استخدامها، بل إنه "يمكن لأي شخص لديه خبرة محدودة للغاية استنساخ الصوت. وربما يستغرق الأمر أقل من خمس دقائق باستخدام بعض الأدوات المتوفرة المجانية والمفتوحة المصدر".

شرح شيريتس أنه لاستنساخ صوته الشخصي، فإن كل ما أحتاج إليه هو مقطع فيديو مدته خمس دقائق وهو يتحدث، موضحًا أن معظم الهاكرز يمكنهم ببساطة سرقة الصوت من مكالمة هاتفية سريعة، أو حتى من مقطع فيديو منشور على وسائل التواصل الاجتماعي.

سيناريو احتيال مقنع وعقب شيريتس قائلًا إن الأمر المثير للقلق حقًا هو "أن الأدوات المتوفرة الآن تجعله قادرا على إضافة المزيد من التصريفات أو التوقفات أو أشياء أخرى تجعل الكلام يبدو أكثر طبيعية، مما يجعله أكثر إقناعًا في سيناريو الاحتيال" بشكل مذهل.

لقد أتقن صوت الروبوت لهجة شيريتس الأميركية الأسكتلندية الهجينة تمامًا، حيث قال: "مرحبًا أمي، أنا شيفالي. لقد فقدت بطاقتي المصرفية وأحتاج إلى تحويل بعض الأموال. هل يمكنك من فضلك إرسال بعض منها إلى الحساب الذي أرسل لك رسالة نصية للتو؟".

وأضاف شيريتس أنه تم رفع مستوى الرعب قليلاً في المقطع التالي، حيث أضاف توقفات مؤقتة، شارحًا أنه يمكن "سماع توقف طويل، ثم نفسًا، وهذا يجعل الأمر يبدو طبيعيًا أكثر بكثير".

فدية بملايين الدولارات وقال شيريتس: "لقد تلقى بعض الأشخاص مكالمات وهمية بشأن الاختطاف، حيث اتصل بهم "طفلهم" قائلاً: "لقد تم اختطافي، أحتاج إلى ملايين الدولارات وإلا فلن يطلقوا سراحي"، ويبدو الطفل حزينًا للغاية".

"ما نشهده اليوم، على نحو متزايد، هو أن الناس يحاولون القيام بمحاولات هندسة اجتماعية أكثر استهدافًا ضد الشركات والمنظمات، مشيرًا في إطار نفس التجارب قام باستخدام نفس التقنية لاستنساخ صوت مديره التنفيذي، حيث غالبًا ما يظهر الرؤساء التنفيذيون علنًا، لذلك من السهل جدًا الحصول على صوت عالي الجودة لأصواتهم واستنساخه"، لذا يتعين على الشركات والمنظمات أن تكون على دراية بهذا الخطر.

علامات رئيسية لكشف الزيف ولحسن الحظ، يقول شيريتس إن هناك العديد من العلامات الرئيسية التي تشير إلى أن الصوت مستنسخ، من بينها أن هناك فترات توقف مؤقتة، والقضايا التي لا يبدو فيها الأمر طبيعيًا، وربما يكون هناك ما يمكن تسميته "المصنوعات اليدوية" في الخلفية. على سبيل المثال، إذا تم استنساخ صوت في غرفة مزدحمة وكان هناك الكثير من الأشخاص الآخرين يتحدثون، فعند استخدام هذا النسخ الصوتي، ستسمع بعض الأشياء غير المرغوب فيها في الخلفية".

ويدق شيريتس ناقوس الخطر قائلًا إنه مع استمرار تطور التكنولوجيا، سيصبح اكتشاف هذه العلامات أكثر صعوبة، وشرح أنه لابد أن يصبح الجميع على دراية أكبر "بهذه التكنولوجيا، وأن يكونوا متشككين دائمًا في أي شيء يطلب منهم التصرف بشكل عاجل - وهذا غالبًا ما يكون علامة حمراء".

"يجب أن يكونوا سريعين في طرح الأسئلة التي ربما لا يعرفها إلا الشخص الحقيقي، وألا يخافوا من محاولة التحقق من الأشياء قبل اتخاذ أي إجراء".

كلمة سر للعائلة يوصي شيريتس بتحديد "كلمة آمنة" مع أفراد العائلة والأصدقاء، موضحًا أنه إذا الشخص الحقيقي في موقف عاجل أو طارئ، فيمكنه أن يقول تلك الكلمة الآمنة وسيعرف متلقي الاتصال على الفور أنه هو الشخص حقًا وليس استنساخًا لصوته. وينصح شيريتس بأن يكون الجميع على دراية بما يقوم بتحميله من مقاطع فيديو أو صوت على الإنترنت لأنه من الممكن ببساطة استخدام تلك المقاطع لإعداد مقاطع تستخدم ضد الشخص بشكل مذهل.

---------------------------------------------------------------------------
Visit this link to stop these emails: https://zapier.com/manage/zaps/228974197/stop/?check=IjIyODk3NDE5NyI:1rhCNN:iWfzujBEZ6BUA_pZngSAl9RZzXM

ليست هناك تعليقات:

إرسال تعليق