نيمار بعد إصابته: الأطباء حذروني أمانة جدة تستعيد 18 موقعًا على الواجهة البحرية إعلان نتائج القبول النهائي بقطاعات الداخلية والأمن الصناعي الاتحاد والأهلي الأكثر حضورًا في جولة الديربيات عملية نوعية تحبط تهريب 100 كيلوجرام من نبات القات المخدر بجازان القبض على 3 مقيمين لترويجهم الحشيش المخدر في جدة أمطار غزيرة على الحدود الشمالية تستمر حتى السبت القبض على مقيمَين لترويجهما 1.5 كجم من الشبو المخدر بالرياض الملك سلمان وولي العهد يهنئان رئيسة جمهورية مولدوفا حالة مطرية غزيرة على جازان تستمر حتى الـ 8 مساء
حذر خبراء التقنية والتكنولوجيا من التطور الهائل لتقنية الذكاء الاصطناعي، حيث أثرت وغيرت في العديد من جوانب حياتنا الحديثة، إلا أنه يمكن استخدامها لأغراض ضارة.
وكشفت ورقة حكومية بريطانية، وضعها أكثر من 50 خبيراً، أنه بحلول عام 2025 يمكن استخدام الذكاء الاصطناعي لارتكاب عمليات احتيال وشن هجمات إلكترونية.
كما بينت أنه بحلول ذلك الوقت سيكون لدى هذه التقنية القدرة على تعزيز القدرات الإرهابية في تطوير الأسلحة والتخطيط للهجمات وإنتاج الدعاية، وفق صحيفة The Times.
وشملت مجموعة المخاطر الأكثر فتكاً التي يمكن أن تنشأ بحلول 2030، كالتضليل الجماعي وأزمة البطالة حيث يستولي الذكاء الاصطناعي على وظائف منخفضة المهارات، واستخدام التكنولوجيا لمساعدة الإرهابيين على تطوير أسلحة بيولوجية.
وذكرت الورقة الصادرة عن المكتب الحكومي للعلوم، أنه لا توجد أدلة كافية لاستبعاد تهديد الذكاء الاصطناعي للإنسانية. واستناداً إلى مصادر، بما في ذلك المخابرات البريطانية، قالت الورقة إن العديد من الخبراء يعتقدون أن هذا خطر ذو احتمالية منخفضة للغاية.
وأضافت: “بالنظر إلى عدم اليقين الكبير في التنبؤ بتطورات الذكاء الاصطناعي، إلا أنه لا توجد أدلة كافية لاستبعاد أنه إذا تم ضبط أنظمة الذكاء الاصطناعي ذات القدرة العالية، بشكل غير صحيح أو لم يتم التحكم فيها بشكل كاف، يمكن أن تشكل تهديداً وجودياً”.
ولفتت إلى أن الذكاء الاصطناعي يمكنه بالفعل أداء العديد من المهام المفيدة اقتصادياً مثل تلخيص المستندات الطويلة وتحليل البيانات.
كما أشارت الورقة إلى أنه من المرجح أن تصبح التكنولوجيا أكثر فائدة، ويمكن تنفيذ المهام بشكل أكثر كفاءة من البشر، لكنها لمحت إلى أنها لا تستطيع التنبؤ “بالقدرات الجديدة المحددة” التي سيكتسبها الذكاء الاصطناعي، حيث من المرجح أن تتطور الأساليب كثيراً.
وبحلول عام 2030، بحسب أحد السيناريوهات، فإنه يمكن لشركات التكنولوجيا تطوير ذكاء فائق اصطناعي قادر على إنجاز مهام معقدة وخداع البشر، وهو ما قد يشكل خطراً كارثياً.
كذلك حذرت من أن الذكاء الاصطناعي قد يؤدي إلى تفاقم المخاطر السيبرانية الحالية بشكل كبير في حالة إساءة استخدامه، من خلال شن هجمات إلكترونية بشكل مستقل.