سلمان بن سلطان: رؤية 2030 نقطة تحول فارقة في مسار التنمية الوطنية
السديس: رؤية 2030 جمعت بين الأصالة والمعاصرة ورسمت خارطة إيصال رسالة الحرمين للعالم
أكثر من 13 مليون زائر للصلاة في الروضة الشريفة خلال عام واحد
الهلال يكتسح غوانغجو بسباعية ويتأهل لنصف نهائي آسيا
ميتروفيتش يسجل الهدف الرابع في شباك غوانغجو
تصدر قائمة الهدافين.. سالم الدوسري يستعيد بريقه آسيويًا
الهلال يضرب غوانغجو بثلاثية في الشوط الأول
فيصل بن نواف: رؤية 2030 تمضي بخطى ثابتة نحو تحقيق أهدافها
فيصل بن خالد: مسيرة رؤية 2030 تسابق الزمن وتقريرها السنوي يبرهن على عمق التحوّل
سعود بن نايف: رؤية 2030 حققت إنجازات نوعية تؤكد ريادة السعودية عالميًا
أكد المختص التقني عبدالعزيز الحمادي، أن التزييف العميق يعد أحد أخطر أشكال الذكاء الاصطناعي.
وأفاد الحمادي، في تصريحات تلفزيونية لقناة الإخبارية، أن التزييف العميق هو استبدال شيء واقعي بشيء مشابه له تمام من الناحية التقنية، موضحًا أن أدواته متوفرة بشكل كبير.
ولفت الخبير التقني إلى أن التزييف العميق من أشكال الذكاء الاصطناعي التي يسهل استخدامها، حيث يمكن التلاعب بالأصوات والتعديل على الصور والفيديوهات.
من المعروف أن التزييف العميق: هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي.
وتقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.
واستُعمِلت هذه التقنيّة في إنشاءِ مقاطع فيديو مزيفة لعددٍ من المشاهير كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة ومُحاولة خدع القُرّاء.
فيديو | المختص التقني عبد العزيز الحمادي: "التزييف العميق" أحد أخطر أشكال الذكاء الاصطناعي التي يسهل استخدامها، إذ يتلاعب بالأصوات ويعدل على الصور والفيديوهات#الإخبارية pic.twitter.com/CiQ59inF5d
— قناة الإخبارية (@alekhbariyatv) July 3, 2023