خوارزميّات توظيف لا ترى النّساء

هل سيوظف الذكاء الصناعي لإقصاء النساء من مجالات العمل؟

يسلط التقرير الضوء على وجود تمييز على أساس النوع، لدى خوارزميات أدوات الذكاء الاصطناعي المُعدة لفحص السير الذاتية، عند اختيار الموظفين/ات؛ ما يقلل فرص النساء في الحصول على الوظائف مقارنة بالرجال.

متفائلة على الدوام، تواصل منّة فتحي رحلتها في البحث عن وظيفة مناسبة؛ فمهما كانت المتاعب في سبيل تحقيق ذلك، تعتقد منّة أن التطبيقات الذكية تُعزّز من فرصها في التقديم والمنافسة على الوظائف المتاحة.

في الوقت ذاته، تفصح منّة عن معاناتها منذ فترة، في رحلة البحث عن وظيفة: “قدمت في 75 وظيفة، ولم يتصل بي أحد ولا أعلم السبب، كلها تذهب في ثقب أسود”.

منّة ليست حالة وحيدة، فمثلها كثيرات/ون؛ إذ يعتقد 88% من أصحاب/ صاحبات العمل أنهم يخسرن/ون المرشحات/ين ذوات/ذوي المؤهلات العالية اللواتي/ الذين يُستبعدن/ون من عمليات التوظيف بواسطة “ATS”؛ لأنّ المرشحات/ين لا يقدمن/ون سِيَرًا ذاتية “متوافقة مع معايير البرنامج وكلماته المفتاحية المُبرمَجة”. ولذلك تُرفض 75% من السِّير الذاتية وتُحذف من قاعدة البيانات، ولا تُعرض مطلقًا على فريق التوظيف.

المفاجآت تتوالى.. خوارزميّات متحيزة ضد النساء

الخوارزميات -في حد ذاتها- ليست متحيزة، ولكن نسبة تمثيل الرجال في البيانات المُدخلة تبلغ نحو 90 %، وبالتالي تصبح النساء غير مرئيات للبرنامج.

رغم معرفة رواد الأعمال بخسارتهن/م أفضل المرشحات/ين، فإن 70% من الشركات الكبرى، و20% من الشركات الصغيرة والمتوسطة، و75 % من مسؤولي التوظيف، يستخدمون حالياً برامج “ATS”، أو أيّ أداة توظيف أخرى تعمل بالذكاء الاصطناعي لمراجعة طلبات المتقدمات/ين.

وبعيدًا عن دهشة الجمهور لاعتقادهن/م أن التكنولوجيا صديقة للبشر، فإنّ برامج فحص طلبات التوظيف “ATS” تعتمد على ما تُزوَّد به من معلومات. فالتحدي لم يعد في أتمتة الوظائف، أو توفير النفقات؛ فكل مَن لم يتمّ تمثيله تمثيلًا دقيقًا وعادلًا داخل البيانات الضخمة، لن يستطيع الذكاء الاصطناعي معاملته بشكلٍ حيادي لأنه “غير موجود” بالنسبة لنموذج البرمجة، والمعايير المسبقة الخاصة بتصنيفات الخوارزميات.

أجرت البروفيسورة إليزابيث كيلان، أستاذة القيادة والتنظيم بكلية إسيكس للأعمال، ومديرة مركز كرانفيلد الدولي، مقابلات مع 69 خبيرًا من مطوري/ات الذكاء الاصطناعي؛ لمعرفة موقفهم/ن من استخدام التكنولوجيا في العمل، بما في ذلك التوظيف. ليكشف الخبراء عن أن أنظمة الذكاء الاصطناعي يمكنها أن تخلق تحيزًا خوارزميًّا ضد النساء، من خلال تخفيض تلقائي لرتبة المتقدمات من النساء، بسبب تدريبه مسبقًا على سِيَر ذاتية لم تتضمن النساء، حيث يتم التعلم الآلي من خلال التعرف على الأنماط السابقة، ومن ثم التّنبؤ بالأنماط الحالية والمستقبلية.

فالخوارزميات -في حد ذاتها- ليست متحيزة، ولكن نسبة تمثيل الرجال في البيانات المُدخلة تبلغ نحو 90 %، وبالتالي تصبح النساء غير مرئيات للبرنامج.

نحن مَن يُعلّم الذكاء الاصطناعي

يؤكد المهندس أحمد عوض، خبير الذكاء الاصطناعي وتطوير برامج التعلم الآلي، وجود تحيز أثناء فرز السير الذاتية، يحدث عند تدريب النموذج من خلال مجموعة البيانات المُدخَلة، التي قد لا تحتوي على معلومات متساوية لكلا الجنسين، أو حتى تعطي تفاصيل أكثر أو أقل عن مجموعة دون أخرى، وبالتالي عندما تبدأ عملية التعلم الآلي، وتحليل الأنماط، والبحث عن السمات المشتركة؛ تصبح التنبؤات ضعيفة لفئة ما وأقوى بالنسبة للفئة الأخرى .

ويوضح عوض أن للتحيز أشكالًا متعددة، فربما يعطي الأولوية لجنس، أو فئة عمرية، أو عرق معين، فهذا لا يعني أن البيانات غير صحيحة، ولكنها غير متساوية لتتبع السرديات التي يغذيها القائمون على تدريب نموذج البرنامج.

وللتقريب، فإنه إذا ما غُذّيت بيانات البرنامج بأن الرجال هو من يمتلك شاربًا (مثلاً)، فكل من لا يمتلك شاربًا فهو من الفئة الأخرى! ويضخم الذكاء الاصطناعي التحيزات الموجودة بسبب التكرار، لأنه يستمد نماذج اللغة وموادها من المعلومات المنشورة بالفعل.

ويشير المهندس معتز عثمان، خبير تطوير البرامج الرقمية بشركة جو ميديا، إلى إمكانية الكشف عن التمييز أو التحيز المحتمل في أنظمة الذكاء الاصطناعي و”ATS”، باستخدام تقنيات ومنهجيات التدقيق الخوارزمي لتحليل مخرجات النظام، وللتحقق من وجود تباينات غير مبررة بين الفئات المختلفة .

العدالة الجندرية

ويتفق دكتور محمود خالد، الخبير التقني والمحاضر بكلية تكنولوجيا المعلومات بجامعة سيناء، بأن دقة هذه الأنظمة تعتمد على جودة وتنوع البيانات وتنظيفها من التحيزات، بسبب التغذية الراجعة للبشر. ولذلك لا بد من دعم التشريعات واللوائح لضمان العدالة الجندرية في استخدام التكنولوجيا، إضافة إلى ضرورة توعية وتدريب الموظفات/ين على كيفية التعامل مع برامج الفحص وتقييم البرامج بشكل مستمر .

ومن واقع أحد مشاريع تطوير وتدريب برامج الذكاء الاصطناعي، تقول تسنيم قورة، المتخصصة في برامج تحليل البيانات بمنحة ALX بإفريقيا، إن سيطرة الرجال على القوى العاملة، تعدّ من الأمثلة الواضحة على وجود التحيزات.

فمن دون قصد، تُستخدم كلمات مباشرة بصيغة المذكر، لا تركز على المشاعر ولا تراعي الجوانب الإنسانية، وهي سمات تخص المجتمع الذكوري، ومن ثمّ تُدَّرب البرامج عليها،  ناهيك عن تفضيلات المطورين/ات والمراجعين/ات.

وتقترح قورة استحداث مهنة التدقيق والمراجعة الأخلاقية من بعد مطوري/ات ومدربي/ات الذكاء الاصطناعي، كإجراء للتخفيف من التحيز والتمييز، لضمان التعامل بمسؤولية وعدالة في التطرق للموضوعات كافة وبشكل متساوٍ، مثلما يحدث في قضية برامج النسخ العربية، بسبب الاعتماد على المصادر الأجنبية.

إننا مكشوفون أمامهم

تضيف تسنيم قورة، المتخصصة في برامج تحليل البيانات بمنحة ALX بإفريقيا، أنه ليس هناك ما يسمى بـ “الصدفة”، و”الحظّ” في عالم الإنترنت، فالخوارزميات تتبعك في كل مكان لتسجل تفضيلاتك، بل وتتنبأ برغباتك وتفاعلاتك.

وبالرجوع لمتخصصي/ات تحسين محركات البحث، أوضح عبد الحسيب طارق، مشتري وسائل إعلام (Media Buyer)، أن منصات مثل لينكدإن تقدم خيارات استهداف تفصيلية تسمح للمعلنين بالوصول إلى شبكة احترافية، والاستفادة من بيانات المستخدمين الدقيقة؛ لضمان وصول الإعلان عن الوظيفة إلى الفئة المستهدفة من المهنيين .

ويشير طارق إلى أن الخوارزميات قد تؤدي دورًا مهمًّا في تقديم إعلانات الوظائف، أو انحرافها حسب الجنس أو العرق، بسبب التحسين الخوارزمي الخفي الخاص بالمنصات، والذي يعمل دون الرجوع لموافقة المعلنين. ويتمّ اختيار شرائح الجمهور طبقًا لشخصية المعلن، وتحليل بيانات السوق والمنافسين/ات.

معوقات إضافية أمام النساء

ووفقًا لليونسكو، فإن النساء أقل بنسبة 25 % من الرجال في معرفة كيفية الاستفادة من التكنولوجيا الرقمية، 12 % فقط من الباحثين/ات في مجال الذكاء الاصطناعي، و 6% من مطوري/ات البرمجيات من النساء. فعندما يتعلق الأمر بالأدوار الفنية الخاصة بعلوم الكمبيوتر والبرمجة وعلوم البيانات وهندسة البرمجيات؛ يشغل الرجال 75 % من الوظائف.

لا تزال منّة تحاول الحصول على وظيفة قائلة: “ربما ارتكبت خطأً ما في السيرة الذاتية، فليس لديّ تجربة سلبية أو حتى إيجابية لأرويها، فكل شيء ينتهي عند حدود التقديم”، ولكنها ستكمل السعي للحصول على فرصة يومًا ما.

تقرير: نورهان جودة

قد يعجبك ايضا

يستخدم هذا الموقع ملفات تعريف الارتباط لتحسين تجربتك. سنفترض أنك موافق على ذلك ، ولكن يمكنك إلغاء الاشتراك إذا كنت ترغب في ذلك. قبول قراءة المزيد