
अंतर्दृष्टि पूर्वावलोकन
नैतिक एआई भर्ती
AI-समर्थित हायरिंग अब भविष्य की कल्पना नहीं रही। दुनिया भर की HR टीमें स्वचालित टूल्स का उपयोग रिज्यूमे स्क्रीन करने, उम्मीदवारों की शॉर्टलिस्ट बनाने, और प्रारंभिक चरण के इंटरव्यू आयोजित करने के लिए कर रही हैं।
लेकिन गति और पैमाना जोखिम के साथ आते हैं। जब एआई सिस्टम पक्षपातपूर्ण ऐतिहासिक डेटा पर प्रशिक्षित होते हैं, तो वे केवल असमानता की नकल नहीं करते—वे उसे बड़े पैमाने पर स्वचालित कर देते हैं।
नैतिक एआई भर्ती सिर्फ अच्छे इरादों से नहीं होती। निष्पक्षता, पारदर्शिता और मानव निगरानी को उन तरीकों में समाहित किया जाना चाहिए जिनसे इन उपकरणों का चयन, तैनाती और निगरानी की जाती है।
नैतिक एआई भर्ती क्या है?
नैतिक एआई भर्ती का अर्थ है स्वचालित भर्ती उपकरणों का ऐसा उपयोग जो निष्पक्ष, व्याख्यायनीय और मानव समीक्षा के अधीन हो। According to the Equal Employment Opportunity Commission (EEOC), fair employment practice requires consistent treatment across gender, ethnicity, disability, and age. नैतिक एआई भर्ती उस मानक को स्वचालित भर्ती प्रक्रिया के हर चरण पर लागू करती है।
क्या एआई भर्ती में पूर्वाग्रह की समस्या है?
हाँ। एआई उतना ही कम‑पक्षपातपूर्ण है जितना वह डेटा जिससे वह सीखता है, और वह डेटा अक्सर ऐतिहासिक असमानताओं से आकार लिया जाता है।
एक व्यापक रूप से उद्धृत 2018 Reuters जांच में पाया गया कि एक Amazon एआई भर्ती उपकरण ने व्यवस्थित रूप से उन रिज्यूमे को कम रेटिंग दी जिनमें शब्द "women's," शामिल था, जैसे "women's chess club captain." यह उपकरण मुख्यतः तकनीक उद्योग में पुरुषों द्वारा प्रस्तुत किए गए एक दशक के रिज्यूमे पर प्रशिक्षित किया गया था।¹
एक 2021 अध्ययन *Nature Machine Intelligence* में 57 फेसियल रिकॉग्निशन सिस्टम का विश्लेषण किया गया और पाया गया कि अधिकांश ने नस्लीय और लिंग‑आधारित पूर्वाग्रह प्रदर्शित किया, जिससे गहरे रंग की त्वचा वाले व्यक्तियों और महिलाओं की गलत पहचान का अनुपात अधिक था।²
एआई भर्ती उपकरणों में पूर्वाग्रह सिर्फ व्यक्तिगत उम्मीदवारों को प्रभावित नहीं करता। यह सक्रिय रूप से संगठनात्मक विविधता लक्ष्यों को कमजोर करता है और नियोक्ताओं के लिए दीर्घकालिक प्रतिष्ठा और कानूनी जोखिम पैदा करता है।

संगठन एआई भर्ती को कैसे अधिक निष्पक्ष और अधिक पारदर्शी बना सकते हैं?
एआई भर्ती में निष्पक्षता की शुरुआत पारदर्शिता से होती है। अधिकांश एआई भर्ती विक्रेता अभी भी "black box" मॉडल पर काम करते हैं, जहाँ निर्णय लेने की लॉजिक मालिकाना और अस्पष्ट होती है। एक 2023 Harvard Business Review लेख में पाया गया कि कई नियोक्ता यह समझते ही नहीं कि उनके एआई भर्ती उपकरण कैसे काम करते हैं, और न ही यह कि उन्हें पूर्वाग्रह के लिए कैसे ऑडिट किया जाए।³
इसका समाधान करने के लिए संगठन ठोस कदम उठा सकते हैं:
- खरीद या अनुबंध नवीनीकरण से पहले विक्रेताओं से व्याख्यायनीय एआई की मांग करें।
- नियमित पूर्वाग्रह ऑडिट संचालित करें, उसी कठोरता के साथ जो वित्तीय या कानूनी अनुपालन के लिए उपयोग की जाती है।
- IBM's AI Fairness 360 toolkit या Google's What-If Tool जैसे स्थापित फ्रेमवर्क का उपयोग करके आउटपुट को जनसांख्यिकीय समूहों में परखें।
एआई भर्ती में मानव निगरानी क्यों आवश्यक है?
एआई प्रारम्भिक चरण की फ़िल्टरिंग को कुशलता से संभाल सकता है, लेकिन वह उन सूक्ष्मता को विश्वसनीय रूप से व्याख्यायित नहीं कर सकता जो प्रभावशाली उम्मीदवारों को अलग करती हैं: करियर ब्रेक, गैर-पारंपरिक पृष्ठभूमियाँ, या ऐसे विकास पैटर्न जो उसके प्रशिक्षण डेटा के बाहर हैं।
World Economic Forum के 2022 "Responsible Use of Technology" रिपोर्ट में सिफारिश की गई है कि संगठन औपचारिक नैतिकता समीक्षाएँ और मानव-इन-द-लूप प्रणालियाँ समाहित करें। लक्ष्य यह है कि स्वचालित प्रक्रियाएँ भर्ती निर्णयों से सहानुभूति और संदर्भात्मक निर्णय को हटा न दें।⁴
मानव निगरानी एआई की सीमाओं के लिए कोई अस्थायी उपाय नहीं है। यह जिम्मेदार तैनाती के लिए एक संरचनात्मक आवश्यकता है।

भर्ती में नैतिक AI के लिए जिम्मेदारी किसकी है?
नैतिक AI-आधारित भर्ती एक सामूहिक जिम्मेदारी है, केवल तकनीक विक्रेताओं का दायित्व नहीं। HR नेता, कानूनी टीमें, procurement फ़ंक्शन और वरिष्ठ अधिकारी सभी मानकों को परिभाषित करने और लागू करने में भूमिका निभाते हैं।
नियमक ढाँचा पकड़ बना रहा है। EU AI Act और U.S. Algorithmic Accountability Act दोनों ही रोजगार संदर्भों में स्वचालित निर्णय-निर्माण को संबोधित करते हैं। लेकिन संगठनों को कार्रवाई के लिए कानून का इंतज़ार करने की ज़रूरत नहीं है। खरीद के चरण में सही प्रश्न पूछना, HR संचालन में ऑडिट प्रक्रियाएँ शामिल करना, और सक्रिय क्रॉस-फंक्शनल संवाद बनाए रखना—ये आज किसी भी संगठन के लिए व्यावहारिक आरंभिक कदम हैं।
निष्कर्ष
- AI-आधारित भर्ती में वास्तविक संभावनाएँ हैं: तेज़ स्क्रीनिंग, अधिक स्थिरता, और व्यापक पहुँच। हालांकि ये लाभ तभी टिकेंगे जब नींव वाले सिस्टम निष्पक्ष, पारदर्शी हों और ऐसे लोगों द्वारा निगरानी किए जाएँ जो उन चीज़ों को पहचानने में सक्षम हों जिन्हें अल्गोरिथ्म नहीं पहचान सकता।
- जो संगठन इसे सही तरीके से लागू करेंगे वे केवल जोखिम से बचेंगे ही नहीं; वे ऐसी भर्ती प्रथाएँ बनाएँगे जो वास्तव में शामिल हर व्यक्ति के लिए बेहतर हों।
संदर्भ
- 1. Dastin, J. (2018). Amazon scrapped 'sexist AI' recruiting tool. *Reuters.* Link (https://www.reuters.com)
- 2. Buolamwini, J., & Gebru, T. (2021). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. *Nature Machine Intelligence.*
- 3. Raji, I. D., & Buolamwini, J. (2023). How to Audit AI Hiring Tools for Bias. *Harvard Business Review.* Link (https://hbr.org)
- 4. World Economic Forum. (2022). Responsible Use of Technology. Link (https://www.weforum.org)
सामग्री स्तंभ