لم تعد تقنية الذكاء الاصطناعي (AI) مقتصرة على إنشاء نصوص وصور مزيفة ، حيث يمكن الآن إنشاء أصوات مزيفة لتقليد أصوات المشاهير أو حتى أصوات الأشخاص العاديين. أصبح هذا مصدر قلق كبير لأن هذه الخوارزميات تنتشر كالنار في الهشيم. أفادت صحيفة Le Temps السويسرية مؤخرًا عن حادثة تلقت فيها أم في ولاية أريزونا مكالمة من رجل ادعى أنه اختطف ابنتها البالغة من العمر 15 عامًا أثناء تزلجها. سمعت الأم صوت ابنتها الذي كان بالضبط نفس صوت ابنتها وهي تبكي وتطلب المساعدة. طالب الخاطف بفدية قدرها مليون دولار ، والتي تم تخفيضها لاحقًا إلى 50 ألف دولار. ومع ذلك ، اكتشف لاحقًا أن المكالمة كانت خدعة. يعتقد الكاتب أن الخاطفين استخدموا نظام استنساخ الصوت ، والذي يستغرق بضع ثوانٍ فقط لتكرار صوت الشخص وإضافة تعبيرات عاطفية وتوقفات وحتى تنهدات.
أصبحت تقنية استنساخ الصوت متطورة بشكل متزايد ، وأصبح من الممكن الآن استنساخ صوت أي شخص باستخدام بضع ثوانٍ فقط من الصوت. هذه التكنولوجيا لها العديد من التطبيقات ، بما في ذلك في صناعة الترفيه والأشخاص الذين يعانون من إعاقات في الكلام. ومع ذلك ، يتم إساءة استخدامه أيضًا من قبل المجرمين لانتحال شخصية الآخرين وارتكاب الاحتيال والاحتيال على الناس.
يمكن للأصوات المزيفة التي يتم إنشاؤها باستخدام تقنيات الذكاء الاصطناعي أن تتسبب في العديد من الأضرار الجسيمة. فعلى سبيل المثال، يمكن استخدام الأصوات المزيفة لإخفاء الأصوات الحقيقية لأشخاص أو آلات أو حتى لتدليل الناس على أشياء خاطئة، مما يمكن أن يؤدي إلى حوادث أو أخطاء خطيرة.
وبالإضافة إلى ذلك، يمكن استخدام الأصوات المزيفة لمهاجمة خصوصية الأفراد والشركات. فعلى سبيل المثال، يمكن استخدام الأصوات المزيفة لتنفيذ هجمات احتيالية عبر الهاتف، حيث يتم استخدام الأصوات المزيفة للتمثيل عن شخص ما أو مؤسسة، مما يمكن أن يؤدي إلى سرقة الهوية أو الأموال.
وأخيراً، يمكن استخدام الأصوات المزيفة لنشر الأخبار الكاذبة والمضللة، حيث يمكن تحريف الأصوات والتلاعب بها لإنشاء محتوى مزيف ينشر عبر الإنترنت، مما يمكن أن يؤدي إلى الفوضى والاضطراب في المجتمع.
لذلك، يجب أن يتم التعامل مع الأصوات المزيفة بحذر، ويجب تطوير التقنيات المضادة للأصوات المزيفة