التوظيف الأخلاقي بالذكاء الاصطناعي

كيف نتصدى للانحياز، ونضمن العدالة، ونبقي البشر في الحلقة. تعد أدوات التوظيف بالذكاء الاصطناعي بالسرعة والقدرة على النطاق، لكن بدون ضوابط متعمدة قد تُرمز إلى نفس أوجه عدم المساواة التي تسعى المنظمات للقضاء عليها.

4 أغسطس 20253 دقيقة قراءة
التوظيف الأخلاقي بالذكاء الاصطناعي

معاينة الرؤى

التوظيف الأخلاقي بالذكاء الاصطناعي

لم يعد التوظيف المدعوم بالذكاء الاصطناعي مفهومًا مستقبليًا. تستخدم فرق الموارد البشرية حول العالم أدوات آلية لفرز السير الذاتية، وتقصير قوائم المرشحين، وإجراء مقابلات المرحلة المبكرة.

لكن السرعة والنطاق تأتيان مع مخاطر. عندما تُدرّب أنظمة الذكاء الاصطناعي على بيانات تاريخية متحيزة، فإنها لا تكرر عدم المساواة فحسب، بل تُؤتمت على نطاق واسع.

يتطلب التوظيف الأخلاقي بالذكاء الاصطناعي أكثر من نيات حسنة. يجب أن تُبنى العدالة والشفافية والإشراف البشري في كيفية اختيار هذه الأدوات ونشرها ومراقبتها.

ما هو التوظيف الأخلاقي بالذكاء الاصطناعي؟

يعني التوظيف الأخلاقي بالذكاء الاصطناعي استخدام أدوات التوظيف الآلية بطرائق عادلة وقابلة للتفسير وخاضعة للمراجعة البشرية. وفقًا للجنة تكافؤ فرص العمل (EEOC)، تتطلب ممارسات التوظيف العادلة معاملة متسقة عبر الجنس والعرق والإعاقة والعمر. يطبق التوظيف الأخلاقي بالذكاء الاصطناعي هذا المعيار على كل مرحلة من عملية التوظيف الآلية.

هل يعاني توظيف الذكاء الاصطناعي من مشكلة انحياز؟

نعم. الذكاء الاصطناعي ليس أكثر حيادية من البيانات التي يتعلم منها، وغالبًا ما تتشكل تلك البيانات بفعل أوجه عدم المساواة التاريخية.

وجد تحقيق واسع الاقتباس نشرته Reuters في 2018 أن أداة توظيف تعتمد على الذكاء الاصطناعي لدى Amazon قللت من شأن السير الذاتية التي احتوت على كلمة "women's" بشكل منهجي، بما في ذلك عبارات مثل "women's chess club captain." كانت الأداة قد تُدرّبت على عقدٍ من السير الذاتية المقدمة في الغالب من رجال في صناعة التكنولوجيا.¹

حللت دراسة نشرت في 2021 في Nature Machine Intelligence 57 نظامًا للتعرف على الوجوه ووجدت أن معظمها أظهر انحيازًا عرقيًا وجندريًا، متمثلًا في معدلات خطأ أعلى عند تحديد الأشخاص ذوي البشرة الداكنة والنساء.²

لا يؤثر الانحياز في أدوات التوظيف بالذكاء الاصطناعي على المرشحين الأفراد فحسب. إنه يقوض أهداف التنوع التنظيمي بنشاط ويخلق تعرضًا طويل الأمد للسمعة والمخاطر القانونية لأصحاب العمل.

مجموعة واسعة من المهنيين المتنوعين تُفلَتر عبر شاشة رقمية، مع استبعاد بعضهم بشكل غير عادل، توضح انحياز الخوارزميات في التوظيف.
عندما يرث الذكاء الاصطناعي بيانات متحيزة، فإن الفلتر لا يفرز المرشحين فحسب. إنه يستبعد التنوع.

كيف يمكن للمنظمات أن تجعل توظيف الذكاء الاصطناعي أكثر عدلاً وشفافية؟

تبدأ العدالة في توظيف الذكاء الاصطناعي بالشفافية. لا يزال معظم بائعي أدوات التوظيف بالذكاء الاصطناعي يعملون بنموذج "الصندوق الأسود"، حيث تكون منطق اتخاذ القرار ملكية خاصة وغير شفاف. وجدت مقالة في Harvard Business Review عام 2023 أن العديد من أصحاب العمل لا يفهمون كيف تعمل أدوات التوظيف بالذكاء الاصطناعي لديهم، ناهيك عن كيفية تدقيقها للانحياز.³

يمكن للمنظمات اتخاذ خطوات ملموسة لمعالجة ذلك:

- المطالبة بذكاء اصطناعي قابل للتفسير من البائعين قبل شراء أو تجديد العقود.

- إجراء تدقيقات دورية للانحياز، بتطبيق نفس الصرامة المستخدمة في الامتثال المالي أو القانوني.

- استخدام أطر عمل معتمدة مثل مجموعة أدوات AI Fairness 360 من IBM أو أداة What-If من Google لاختبار المخرجات عبر المجموعات الديموغرافية.

لماذا يُعد الإشراف البشري ضروريًا في توظيف الذكاء الاصطناعي؟

يمكن للذكاء الاصطناعي أن يتعامل بكفاءة مع فرز المراحل المبكرة، لكنه لا يستطيع تفسير الفروق الدقيقة التي تميّز المرشحين الجذابين بشكل موثوق: فترات الانقطاع عن العمل، الخلفيات غير التقليدية، أو مسارات النمو التي تقع خارج بيانات تدريبه.

توصي تقرير "الاستخدام المسؤول للتكنولوجيا" الصادر عن World Economic Forum في 2022 بأن تُدرج المنظمات مراجعات أخلاقية رسمية وأنظمة الإنسان ضمن الحلقة. الهدف هو منع العمليات الآلية من إزالة التعاطف والحكم السياقي من قرارات التوظيف.⁴

الإشراف البشري ليس ملاذًا لمحدودية الذكاء الاصطناعي. إنه متطلب هيكلي للنشر المسؤول.

صف طويل من رؤوس دمى بيضاء متماثلة على سير صناعي، مع شخص واحد يفحص بعناية رأسًا واحدًا تحت مصباح.
عندما يعامل الذكاء الاصطناعي كل مرشح كنسخة متماثلة، يلزم وجود إنسان ليلحظ من يُستبعد.

من المسؤول عن الذكاء الاصطناعي الأخلاقي في التوظيف؟

التوظيف الأخلاقي بالذكاء الاصطناعي مسؤولية جماعية، وليست واجبًا حصريًا على بائعي التكنولوجيا. يلعب قادة الموارد البشرية والفرق القانونية ووظائف المشتريات والتنفيذيون الكبار جميعهم دورًا في تحديد المعايير وإنفاذها.

التنظيم يلاحق الركب. يركز كل من EU AI Act وU.S. Algorithmic Accountability Act على اتخاذ القرار الآلي في سياقات التوظيف. ومع ذلك، لا تحتاج المؤسسات إلى الانتظار حتى صدور التشريعات لتتخذ إجراءات. طرح الأسئلة الصحيحة في مرحلة الشراء، ودمج عمليات التدقيق في عمليات الموارد البشرية، والحفاظ على حوار فعّال متعدد الوظائف هي نقاط انطلاق عملية متاحة لأي مؤسسة اليوم.

الخلاصة

  • التوظيف بواسطة الذكاء الاصطناعي يحمل وعداً حقيقياً: فحص أسرع، اتساق أكبر، ونطاق أوسع. لكن هذه الفوائد تتحقق فقط إذا كانت الأنظمة الأساسية عادلة وشفافة وتخضع لإشراف أشخاص مؤهلين للتعرف على ما لا يمكن للخوارزمية إدراكه.
  • المؤسسات التي تنفذ ذلك بشكل صحيح لن تقتصر على تجنب المخاطر فحسب. بل ستبني ممارسات توظيف أفضل حقًا لكل الأطراف المعنية.

المراجع

  1. 1. Dastin, J. (2018). Amazon scrapped 'sexist AI' recruiting tool. *Reuters.* Link (https://www.reuters.com)
  2. 2. Buolamwini, J., & Gebru, T. (2021). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. *Nature Machine Intelligence.*
  3. 3. Raji, I. D., & Buolamwini, J. (2023). How to Audit AI Hiring Tools for Bias. *Harvard Business Review.* Link (https://hbr.org)
  4. 4. World Economic Forum. (2022). Responsible Use of Technology. Link (https://www.weforum.org)

ابقَ في صدارة تطورات المنظومة

رسالة إلكترونية واحدة في الأسبوع. أبحاث أصلية، كتيبات تشغيل، وإشارات منظومية مهمة - بلا حشو، بلا رسائل مزعجة.