كشفت دراسة حديثة أن الصور المستخدمة لتعليم الذكاء الاصطناعي تسببت في تطويره للتمييز الجنسي.

وتوصل أستاذ علوم الكمبيوتر بجامعة فرجينيا "فيسينت أوردونيز" واثنين من زملائه، إلى أن مجموعات الصور والبيانات المستخدمة لتدريب الذكاء الاصطناعي (بما في ذلك برامج يدعمها الفيسبوك ومايكروسوفت) تؤدي إلى تطوير التمييز الجنسي.

وبحسب صحيفة "ديلي ميل" البريطانية، بدأ البحث بعدما لاحظ فيسينت نمطًا مزعجًا من التمييز الجنسي في التخمينات التي يقوم بها برنامج التعرف على الصور، الذي ما زال طور الإعداد.

وقال: "كان الذكاء الاصطناعي الذي طورته يربط صور المطبخ بالنساء وليس الرجال، وليس هذا فقط بل كان كثيرًا ما يربط بين النساء وصور التسوق والغسيل وحتى أغراض المطبخ مثل الشوك والملاعق".

وأضاف: "فيما ربط الذكاء الاصطناعي الرجال بالأنشطة الذكورية مثل الرياضة، والصيد، والتدريب، بالإضافة إلى أشياء مثل المعدات الرياضية، وليس ذلك فحسب حيث إن البرامج وصفت صور الرجال الواقفين بالمطبخ بأنهم نساء".

وفي الدراسة، فحص الفريق مجموعتي الصور إمسيتو (التي أنشأتها جامعة واشنطن) وكوكو (التي انشأتها "مايكروسوفت" و"فيسبوك")، إذ تحتوي كلتا المجموعتين على أكثر من 100 ألف صورة من المشاهد المعقدة مع الوصف.

ووجدوا أنه بالإضافة إلى التمييز الموجود في مجموعات التدريب، قام الذكاء الاصطناعي بتعظيم التمييز.

وأوضحت الدراسة: "على سبيل المثال، توحي الصور بارتباط النساء بالطبخ بنسبة 33% أكثر من الرجال، ولكن الذكاء الاصطناعي حول هذا التفاوت إلى 68% عند الاختبار".

كما قام الذكاء الاصطناعي بنفس الشيء مع الذكور، حيث بالغ في ارتباطهم بأجهزة الكمبيوتر مثل لوحات المفاتيح، أكثر مما توحي به مجموعتي الصور التدريبية.

وحذر مارك ياتسكار، من أنه في حال عدم حل تلك المشكلة، فمن شأن هذا أن يعزز التمييز الاجتماعي القائم ليجعله أسوأ.

وأضاف: "تعلم التكنولوجيا للتمييز البشري يمكن أن تكون له آثار في العالم الواقعي مع تقدم التكنولوجيا، حيث يصبح الإنسان أكثر اعتمادًا على الذكاء الاصطناعي يومًا بعد الآخر، فلا يمكن للبشر الاعتماد على نظام عنصري".