دراسة بحثية لـ”تريندز” تؤكد ضرورة اتخاذ نهج متعدد الأوجه لمعالجة مخاطر التحيز في الذكاء الاصطناعي
أصدر مركز تريندز للبحوث والاستشارات دراسة جديدة تتناول التحديات المرتبطة بالتمييز الخوارزمي، تسلط الضوء على ضرورة اتخاذ نهج متعدد الأوجه لمعالجة مخاطر التحيز في الذكاء الاصطناعي، بدءاً من فحص دقيق لمجموعات البيانات المستخدمة في تدريب الخوارزميات، وصولاً إلى وضع حوكمة قانونية وأخلاقية سليمة.
وبينت الدراسة التي حملت عنوان “الذكاء الاصطناعي غير المتحيز: معالجة التمييز في الخوارزميات” “، وأعدتها الباحثة نورة المزروعي، رئيس قسم الذكاء الاصطناعي والدراسات المستقبلية، أن الذكاء الاصطناعي يساهم في تحويل مجالات عديدة من حياتنا، لكن ظهور التمييز الخوارزمي يهدد مبادئ العدالة والمساواة؛ إذ تعزز أنظمة الذكاء الاصطناعي في بعض الأحيان التحيز والممارسات التمييزية، ما يؤدي إلى معاملة غير متكافئة بين مختلف الفئات المجتمعية.
وتسلط الدراسة الضوء على جوانب متعددة للذكاء الاصطناعي غير المتحيز، وتطرح تساؤلات مهمة، مثل كيف يُعرّف التمييز الخوارزمي وكيف يتم اكتشافه؟ وما المخاطر الاجتماعية المرتبطة بالذكاء الاصطناعي المتحيز؟ وكيف تسلط الحالات الأخيرة الضوء على مسألة عدالة الذكاء الاصطناعي؟ وما التحديات التقنية في تطوير خوارزميات غير متحيزة؟ وكيف يساهم جمع البيانات ومعالجتها في تعزيز التحيز؟
وما دور الأطر القانونية والأخلاقية في تأصيل أو منع التحيز؟ وما الأساليب التي يجري تطويرها للكشف عن التحيز والتخفيف منه؟ وكيف يمكن للتنوع في فرق تطوير الذكاء الاصطناعي تقليل مخاطر التمييز؟ وما توقعات مستقبل الذكاء الاصطناعي غير المتحيز وتأثيره على المجتمع؟
وتوفر الدراسة معلومات قيمة حول كيفية إنشاء أنظمة ذكاء اصطناعي عادلة وشفافة وأخلاقية، وتؤكد ضرورة اتباع نهج متعدد الأوجه يعالج مخاطر التحيز في كل مراحل تطوير واستخدام الذكاء الاصطناعي، بدءاً من فحص دقيق لمجموعات البيانات المستخدمة في تدريب الخوارزميات، وصولاً إلى وضع حوكمة قانونية وأخلاقية سليمة.
كما تسلط الدراسة الضوء على أهمية العمل المشترك لتطوير أنظمة ذكاء اصطناعي تخدم البشرية بلا تحيز أو تمييز.