لندن - ماريا طبراني
يحاول المبرمجون خفض معدل التحيُّز الجنسي في الآلات من خلال مساعدتها على فصل الكلمات عن الصورة النمطية. ورغم أن الأجهزة قد تكون محايدة، فإن تحيزات الإنسان اللاوعية يمكن أن تنعكس في خوارزميات تحليل اللغة.
يعد آدم كالاي واحدًا من المبرمجين في فريق أبحاث "مايكروسوفت" والذي يتعاون مع باحثين في جامعة "بوسطن" في محاولة لإزالة هذا التحيز من الكمبيوتر. ويستخدم الفريق تقنية من أجل كيفية معالجة اللغة من خلال إيجاد العلاقات بين الكلمات.
وباستخدام تلك التقنية، يمكن للآلات التعرف على سياق الكلمات من خلال مقارنة بين "هو" و"هى"، وعند تطبيقها يجد الأزواج المناسبة مثل "شقيقة - شقيق" أو "ملكة – ملك". ولكنَّ بعض الأزواج يمكن أن يتم اختيارها بناءً على التحيز الجنسي الذي يمكن أن يكون مشكلة.
وقال كالاي: نحن نحاول، خصوصا في المقالات الإخبارية تجنب قول كلمات متحيزة جنسياً". وأضاف في ورقة بحثية تم نشرها على الانترنت، وجد الفريق أنه يمكنهم تدريب الآلات لتجاهل بعض الكلمات مع الحفاظ على المعلومات الأساسية.
ويشرح الفريق :"هدفنا هو تقليل التحيز الجنسي مع الحفاظ على خصائص التقنية المفيدة"، ومن خلال إجراء تغييرات في الخوارزميات، تمكن الفريق من إزالة ارتباط الكلمات التي من الممكن أن يكون بها تحيز جنسي مع الاحتفاظ بالكلمات المناسبة.
وقال الباحثون: "إنها قضية دقيقة لفهم التحيز المباشر وغير المباشر بسبب الصور النمطية العنصرية والعرقية والثقافية. تحديد وإزالة هذه التحيزات سيكون توجهاً مهماً في المستقبل".