- 'surveillance wages' वह सिस्टम है जिसमें काम के प्रदर्शन या अनुभव के वर्षों के बजाय, कर्मचारियों के निजी डेटा का उपयोग करने वाले algorithms वेतन तय करते हैं, और यह अक्सर ऐसी जानकारी पर आधारित होता है जो संबंधित व्यक्ति की जानकारी के बिना इकट्ठी की गई होती है
- payday loan उपयोग का इतिहास, credit card balance, SNS posts जैसी वित्तीय असुरक्षा का संकेत देने वाली चीज़ें algorithms में डाली जाती हैं ताकि यह अनुमान लगाया जा सके कि उम्मीदवार कितने न्यूनतम वेतन पर सहमत होगा
- UC Irvine School of Law की Professor Veena Dubal के नेतृत्व में तैयार labor-management AI कंपनियों की 500 फर्मों की audit report में पुष्टि हुई कि healthcare, customer service, logistics और retail क्षेत्रों के बड़े नियोक्ता ऐसे tools देने वाले vendors के ग्राहक हैं
- gig nurses, rideshare drivers जैसे platform workers विशेष रूप से अधिक प्रभावित हो रहे हैं, और एक ही facility में एक ही काम के लिए भी अलग-अलग व्यक्तियों को अलग वेतन मिलने के मामले सामने आए हैं
- Colorado में 'व्यक्तिगत डेटा आधारित price और wage setting पर रोक' संबंधी कानून प्रस्तावित है, लेकिन इस विषय पर regulation की बहस consumer pricing की तुलना में wages के मामले में कहीं धीमी रही है
surveillance wages क्या है
- यह surveillance pricing जैसी ही सोच का विस्तार है: जैसे airlines और shopping malls निजी डेटा के आधार पर अलग-अलग उपभोक्ताओं से अलग कीमत लेते हैं, वैसे ही नियोक्ता भी उसी तरह वेतन तय करते हैं
- विशेषज्ञ इसे 'surveillance wages' कहते हैं: performance या seniority की जगह, निजी डेटा इनपुट करने वाला algorithm वेतन तय करता है, और अधिकांश मामलों में संबंधित व्यक्ति को इसकी जानकारी नहीं होती
- labor rights group Towards Justice की policy director Nina DiSalvo के अनुसार, कुछ systems payday loan उपयोग का इतिहास, ऊंचा credit card balance जैसी वित्तीय असुरक्षा के संकेतों का उपयोग करके यह अनुमान लगाते हैं कि उम्मीदवार कितना न्यूनतम वेतन स्वीकार करेगा
- public SNS posts को scrape करके union में शामिल होने की संभावना, pregnancy जैसी बातों का पता लगाने में भी इसका उपयोग हो सकता है, और इससे नौकरी मिलने के बाद salary increase के फैसले भी प्रभावित हो सकते हैं
- Groundwork Collaborative की Lindsay Owens: "अगर यह consumers पर काम करता है, तो यह workers पर भी काम करता है. मनोविज्ञान वही है"
500-फर्म audit report की मुख्य बातें
- UC Irvine School of Law की Professor Veena Dubal और technology strategist Wilneida Negrón ने labor-management AI की 500 कंपनियों का पहला audit करने वाली report अगस्त 2025 में Washington Center for Equitable Growth के माध्यम से जारी की
- healthcare, customer service, logistics और retail क्षेत्रों के नियोक्ता ऐसे vendors के ग्राहक पाए गए जो इस तरह की प्रथा को संभव बनाने वाले tools उपलब्ध कराते हैं
- report में प्रमुख अमेरिकी कंपनियों का ग्राहक के रूप में उल्लेख है: Intuit, Salesforce, Colgate-Palmolive, Amwell, Healthcare Services Group
- report यह दावा नहीं करती कि इन tools का उपयोग करने वाला हर नियोक्ता algorithmic wage surveillance कर रहा है, लेकिन यह चेतावनी देती है कि निजी डेटा विश्लेषण वाले algorithmic tools का बढ़ता उपयोग transparency और fairness से अधिक cost cutting को प्राथमिकता देने वाली wage practices को सक्षम बना सकता है
- Colgate-Palmolive ने कहा: "हम algorithmic wage-setting tools का उपयोग नहीं करते" / Intuit ने कहा: "हम ऐसी practices में शामिल नहीं हैं"
भर्ती के बाद भी जारी रहने वाली निगरानी
- surveillance wages सिर्फ hiring stage तक सीमित नहीं हैं, बल्कि काम के दौरान bonus और incentive compensation तय करने में भी इस्तेमाल किए जाते हैं
- vendors productivity, customer interaction, और real-time behavior tracking (कुछ मामलों में voice और video surveillance सहित) के tools भी उपलब्ध कराते हैं
- 2022 की International Data Corporation (IDC) survey: 500 से अधिक कर्मचारियों वाली लगभग 70% कंपनियां पहले से employee monitoring systems का उपयोग कर रही हैं
- Nina DiSalvo: "आपके बारे में मौजूद डेटा algorithmic decision-making systems को यह अनुमान लगाने में सक्षम बना सकता है कि किसी खास behavioral response को हासिल करने के लिए कितना बड़ा incentive चाहिए"
healthcare gig workers का मामला: 'desperation index' से वेतन तय
- 29 gig nurses के interviews पर आधारित Roosevelt Institute की report के अनुसार, CareRev, Clipboard Health, ShiftKey, ShiftMed जैसे healthcare staffing platforms individual shifts के लिए wages algorithm से तय करते हैं
- fixed wage के बजाय, shift स्वीकार करने की आवृत्ति, post पर response की speed, पहले स्वीकार किए गए wage levels जैसी बातों के आधार पर platform व्यक्ति-विशेष का वेतन समायोजित करता है
- इसका परिणाम यह होता है कि एक ही facility में एक ही काम के लिए भी अलग-अलग nurses को अलग वेतन मिलता है
- आलोचकों का कहना है कि यह सिस्टम skill या experience नहीं, बल्कि वित्तीय रूप से कमजोर स्थिति दिखाने वाले व्यवहार को reward करता है
- ShiftKey ने surveillance wage setting में शामिल होने से इनकार किया: "हम data broker services का उपयोग नहीं करते और न ही surveillance wage setting में शामिल हैं"
- Rideshare Drivers United की Nicole Moore: "वे हमारे desperation index का आकलन कर रहे हैं"
rideshare drivers का मामला
- Rideshare Drivers United के अनुसार, algorithmic wages कई वर्षों से rideshare industry के workers की कमाई को प्रभावित कर रहे हैं
- LA के rideshare driver Ben Valdez के अनुसार, Uber और Lyft ने कई साल पहले नया wage algorithm लागू करने के बाद pandemic के बाद demand बढ़ने के बावजूद उनकी कमाई घट गई
- एक ही route और एक ही समय में अलग-अलग drivers को अलग base fare दिए जाने के मामले सामने आए
- शुरुआत में ऐसा fare दिखाया जाता है जिसे सिर्फ accept या reject किया जा सकता है, और पर्याप्त संख्या में drivers के मना करने पर ही fare बढ़ता है
- Fordham University School of Law की Zephyr Teachout (2023 report): Uber समृद्ध driver data profiles का उपयोग करके individual drivers के incentives और platform की ज़रूरतों के अनुसार wages समायोजित करता है
- Uber का कहना है: "upfront fares समय, दूरी और demand conditions पर आधारित होते हैं, और wage decisions में individual driver characteristics या past behavior का उपयोग नहीं किया जाता"
भेदभाव की आशंका और 'लोहे की कांच की छत'
- surveillance wages के आलोचकों का कहना है कि algorithms वित्तीय इतिहास और अन्य तत्वों के आधार पर सबसे अधिक आर्थिक रूप से कमजोर workers को असमान रूप से target कर सकते हैं और इस तरह पारंपरिक performance-based wages को दरकिनार कर सकते हैं
- अतीत की आर्थिक कठिनाइयों या व्यक्तिगत फैसलों का उपयोग वर्तमान के कम वेतन को सही ठहराने में किया जाता है, और कई बार संबंधित व्यक्ति को यह भी नहीं पता होता कि कौन-सा डेटा इस्तेमाल हुआ
- "The AI Ecosystems Revolution" के लेखक Joe Hudicka: "glass ceiling को कम-से-कम देखा तो जा सकता है. surveillance wage ceiling लोहे और concrete की है. उसे तोड़ा नहीं जा सकता"
विधायी स्थिति और regulatory बहस
- New York राज्य: अगर algorithms निजी डेटा का उपयोग करके price तय करते हैं, तो उसे consumers को बताना अनिवार्य करने वाला नियम पारित हुआ — लेकिन अधिकांश कानून prices तक सीमित हैं, wages तक नहीं
- Colorado: 'Prohibit Surveillance Data to Set Prices and Wages Act' प्रस्तावित
- payday loan history, location data, Google search behavior जैसे अत्यंत निजी personal data का algorithmic wage decisions में उपयोग प्रतिबंधित
- हालांकि, performance-based wages को अपवाद के रूप में अनुमति
- बिल के प्रस्तावक Democratic state representative Javier Mabrey: "हमारा बिल personalized pricing के बारे में है, dynamic pricing के बारे में नहीं. इसमें demand-supply नहीं, बल्कि व्यक्ति के बेहद संवेदनशील डेटा की ज़रूरत होती है"
- Uber और Lyft दोनों ने individual driver characteristics को wage decisions में उपयोग करने से इनकार किया है, फिर भी Mabrey के अनुसार दोनों कंपनियां इस बिल के खिलाफ lobbying कर रही हैं
अभी कोई टिप्पणी नहीं है.