القبض على 4 أشخاص لإطلاقهم النار في الهواء بالرياض
حظر صيد أسماك الناجل والطرادي بساحل منطقة المدينة المنورة لمدة شهرين
سلمان للإغاثة يوزّع 220 قطعة ملابس في دمشق
السعودية تتصدر دول العالم في إنتاج الخيل العربية الأصيلة
مكتبة الملك عبدالعزيز وهيئة التراث توقعان مذكرة تفاهم لتعزيز التعاون في التراث الثقافي
إعلان نتائج الترشيح للوظائف التعليمية التعاقدية المكانية
نقل 3 مواطنين عبر طائرة الإخلاء الطبي من الكويت لاستكمال علاجهم في السعودية
إنقاذ حياة 8 مرضى خلال 12 ساعة بتبرع من 4 متوفين دماغيًا
وصول أعداد الغرف المرخصة في مرافق الضيافة السياحية بنهاية 2024 إلى أكثر من 475 ألفًا
القبض على 7 مخالفين لتهريبهم 180 كيلو قات في عسير
أعلنت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” عن إطلاق أداة التقييم الذاتي لأخلاقيات الذكاء الاصطناعي عبر منصة حوكمة البيانات الوطنية؛ التي تهدف إلى مساعدة الجهات الحكومية والخاصة، وكذلك المطورون الأفراد في قياس مدى التزامهم بالمبادئ الأخلاقية عند تطوير وتطبيق تقنيات الذكاء الاصطناعي، وتمكين الجهات من إجراء تحليل منهجي وشامل لمدى التزامها بالمعايير الأخلاقية.
وتُمكّن أداة التقييم الذاتي لأخلاقيات الذكاء الاصطناعي الجهات من تعزيز الشفافية والموثوقية في تطوير تطبيقات الذكاء الاصطناعي، وتحقيق التوافق مع أفضل الممارسات العالمية، كما تسهم الأداة في ضمان تطوير تقنيات ذكاء اصطناعي تخدم المجتمع وتعزز من مكانة المملكة؛ بوصفها نموذجًا عالميًّا في تطوير وتطبيق تقنيات الذكاء الاصطناعي المسؤولة.
وتعد أداة التقييم إطارًا شاملًا مكونًا من 81 سؤالًا أُعِدَّت وفق أعلى المعايير العالمية لتقييم التزام الجهات بأخلاقيات الذكاء الاصطناعي، وتغطي هذه الأسئلة سبعة مبادئ أساسية تهدف إلى رفع مستوى نضج المنتجات في تطبيق أخلاقيات الذكاء الاصطناعي وتحقيق توازن بين الابتكار والمسؤولية، وتشمل هذه المبادئ الإنصاف لضمان العدالة وتجنب التمييز في النماذج والتطبيقات، والإنسانية التي تركز على احترام حقوق الإنسان وتعزيز رفاهيته.
كما تهتم الأداة بتحقيق المزايا الاجتماعية والبيئية من خلال إحداث أثر إيجابي على المجتمع والبيئة، إلى جانب حماية الخصوصية وضمان أمان بيانات الأفراد، مركزة على الموثوقية والسلامة لضمان عمل الأنظمة، وتعزيز الشفافية والقابلية للتفسير لتمكين الفهم الواضح لآليات عمل النماذج وقراراتها.
وتتضمن المساءلة والمسؤولية لضمان وجود آليات واضحة عن استخدام تقنيات الذكاء الاصطناعي وقراراتها، وتهدف هذه المبادئ مجتمعة إلى تعزيز التطوير المسؤول للتقنيات بما يخدم القيم الإنسانية والمجتمعية.
وتعتمد الأداة على نظام قياس بسيط ومباشر، حيث يُجَاب عن الأسئلة باستخدام مقياس يتراوح بين 1 (أدنى مستوى) إلى 5 (أعلى مستوى) وبعد الانتهاء من الإجابة عن جميع الأسئلة، تحلل الأداة النتائج وإصدار تقرير مفصل يوضح مستوى النضج الأخلاقي في كل مبدأ من المبادئ السبعة، ويعطي صورة شاملة حول نقاط القوة التي يمكن البناء عليها، وكذلك الجوانب التي تحتاج إلى تحسين لتلبية المتطلبات الأخلاقية.
وصُممت الأداة لتمكن الجهات من استخدامها مرات عديدة لتتبع تقدمها وتحسين أدائها مع مرور الوقت، وتمنح هذه المرونة مختلف الجهات فرصة تعزيز التزامها الأخلاقي بشكل مستمر وتحديث ممارساتها بما يتماشى مع التطورات الحديثة.
ويمكن للجهات أو الأفراد البدء بإجراءات التقييم من خلال الدخول إلى منصة حوكمة البيانات الوطنية، حيث تتوفر أداة تقييم أخلاقيات الذكاء الاصطناعي. وبعد اختيار الأداة، يتم مباشرة عملية التقييم وذلك من خلال الرابط التالي: هنا.