الذكاء الاصطناعي يمكن أن يصيب أي شخص — سبق

الذكاء الاصطناعي يمكن أن يصيب أي شخص — سبق

حذّرت رئيسة الوزراء الإيطالية جورجيا ميلوني من خطورة محتوى التزييف العميق بعد تداول صور مفبركة لها باستخدام الذكاء الاصطناعي، مؤكدة أن هذه التقنيات يمكن أن تُستخدم للتشهير والتضليل ضد أي شخص. ودعت إلى اعتماد قاعدة التحقق قبل التصديق وقبل مشاركة أي محتوى رقمي.

ردّت رئيسة الوزراء الإيطالية جورجيا ميلوني، على تداول صور مفبركة نُسبت إليها باستخدام تقنيات الذكاء الاصطناعي، محذّرة من مخاطر انتشار محتوى التزييف العميق وتأثيره على الأفراد والحياة العامة.

وقالت ميلوني، في منشور نشرته عبر منصة إكس (X) عبر حسابها الرسمي، إن صورًا كاذبة تم تداولها على أنها حقيقية.

وأضافت: “في هذه الأيام، يتم تداول العديد من الصور الكاذبة لي، التي تم إنشاؤها باستخدام الذكاء الاصطناعي، ويتم الترويج لها كصور حقيقية من قبل بعض المعارضين النشيطين”.

وأردفت: “يجب أن أعترف بأن الشخص الذي أنشأها، على الأقل في الحالة المرفقة، قد حسّن مظهري كثيرًا. لكن يبقى الأمر أن، من أجل الهجوم واختراع الكذب، أصبح يُستخدم الآن أي شيء حقًا”.

وتابعت: “لكن النقطة تتجاوزني أيضًا. الفيديوهات المزيفة العميقة هي أداة خطيرة، لأنها يمكن أن تخدع وتتلاعب وتصيب أي شخص. أنا أستطيع الدفاع عن نفسي. الكثيرون الآخرون لا يستطيعون”.

وأكدت أن القضية ليست استهداف شخصي فحسب، بل تعكس تحوّلًا خطيرًا في استخدام تقنيات الذكاء الاصطناعي لأغراض التشهير والتضليل، داعية إلى رفع الوعي العام بآليات التحقق من المحتوى قبل تداوله.

وتأتي تصريحات ميلوني في ظل تصاعد استخدام تقنيات الديب فيك التي تسمح بإنتاج صور ومقاطع تبدو واقعية، مما يثير مخاوف متزايدة بشأن التضليل الرقمي والأمن المعلوماتي في المجال السياسي والإعلامي.