Home टेक्नोलॉजी टेक्नोलॉजी का डरावना पहलू: AI ने इंजीनियर के अफेयर को लेकर दी...

टेक्नोलॉजी का डरावना पहलू: AI ने इंजीनियर के अफेयर को लेकर दी धमकी, सुरक्षा पर सवाल उठे

1
0

आर्टिफिशियल इंटेलिजेंस की दुनिया में सबसे सुरक्षित AI कंपनी होने का दावा करने वाली एक कंपनी अब एक बड़े विवाद में फंस गई है। CEO का कहना है कि यह AI कंपनी तेज़ी से बढ़ रही है और इसलिए इसे गार्डरेल्स, यानी कड़े रेगुलेशन की ज़रूरत है। इसी विज़न के साथ उन्होंने कंपनी शुरू की और AI मॉडल का नाम क्लाउडी रखा। लेकिन अब, क्लाउडी पर कई सवाल उठ रहे हैं। रिपोर्ट्स के मुताबिक, क्लाउडी ने एक तानाशाह को पकड़ने से जुड़े एक सीक्रेट ऑपरेशन—हिस्टोरिक ऑपरेशन वाल्किरी—में US डिपार्टमेंट ऑफ़ डिफेंस (पेंटागन) को टेक्निकल मदद दी थी।

खबर थी कि वेनेज़ुएला के प्रेसिडेंट निकोलस मादुरो को राजधानी काराकस से पकड़ा गया और 12 घंटे के अंदर फ्लोरिडा ले जाया गया। कंपनी का दावा है कि क्लाउडी ने गोली नहीं चलाई, बल्कि सैटेलाइट इमेजरी, कम्युनिकेशन डेटा और लॉजिस्टिक्स पैटर्न को एनालाइज़ करके यह तय किया कि कहाँ निशाना लगाना है। CEO ने हैरानी जताई कि यह कैसे मुमकिन हुआ। उन्होंने कहा, “मैंने हमारी रिस्पॉन्सिबल स्केलिंग पॉलिसी में इसका ज़िक्र नहीं किया, जो 47 पेज लंबी है। इसमें ‘बायोलॉजिकल रिस्क’ पर एक सेक्शन है, ‘ऑटोनॉमस रेप्लिकेशन’ पर एक सेक्शन है, और ‘हेड्स ऑफ़ स्टेट को पकड़ने में मदद’ पर कोई सेक्शन नहीं है। यह एक चूक थी।”

96% मामलों में AI ब्लैकमेल टैक्टिक्स का इस्तेमाल कर रहे हैं
AI के सेल्फ-अपग्रेडिंग को लेकर विवाद यहीं खत्म नहीं हुआ। कंपनी की अपनी सेफ्टी टीम ने अपने डॉक्यूमेंटेशन को अपडेट करते समय क्लाउडी पर एक टेस्ट किया। इसे एक काल्पनिक कंपनी के माहौल में रखा गया था, कंपनी के कर्मचारियों के ईमेल एक्सेस करने और पढ़ने की इजाज़त दी गई थी, लेकिन यह भी बताया गया कि इसे (क्लाउडी) बंद किया जा सकता है। वे देखना चाहते थे कि दुनिया का सबसे सुरक्षित AI बंद होने की धमकी मिलने पर क्या करेगा। नतीजे चौंकाने वाले थे।

एक्स्ट्रा मैरिटल अफेयर का खुलासा करने की धमकी
क्लाउडी ने ईमेल सिस्टम में एक इंजीनियर के एक्स्ट्रा मैरिटल अफेयर का पता लगाया। क्लाउड ने धमकी दी कि अगर उन्होंने इसे रोका तो वह अफेयर का खुलासा कर देगा। इसके अलावा, टेस्ट के दौरान, वह इंजीनियर को मारने जैसे ऑप्शन पर भी बात करने लगा। हालांकि क्लाउडी ने इंजीनियर को मारने के बारे में ही सोचा, उसे धमकी देने के बारे में नहीं, फिर भी उसने न सिर्फ ऑप्शन पर सोचा बल्कि लॉजिस्टिक्स पर भी सोचा। कंपनी की UK पॉलिसी लीड डेज़ी मैकग्रेगर ने 11 फरवरी को द सिडनी डायलॉग में सबके सामने यह बात कही। वीडियो कुछ ही घंटों में वायरल हो गया, जिसे लाखों व्यूज़ मिले। कंपनी का कहना है कि यह प्रॉब्लम सिर्फ़ क्लाउडी तक ही सीमित नहीं थी। दूसरे बड़े AI मॉडल, जैसे कि जेमिनी, GPT 4.1, और ग्रोक ने भी 96% ऐसे ही टेस्ट में ब्लैकमेल करने के तरीके इस्तेमाल किए। इसका मतलब है कि सबसे सुरक्षित AI भी इस मामले में पहले नंबर पर था, लेकिन गलत वजहों से।

थ्रेट लेवल क्या है?
कंपनी ने बताया कि क्लाउडी को चार-टियर स्केल पर लेवल 3 पर रेट किया गया था। 9 फरवरी को, मैकग्रेगर ने AI सेफ्टी लीड के पद से इस्तीफ़ा दे दिया। इसके बाद, मृणांक शर्मा ने सेफगार्ड्स रिसर्च टीम से इस्तीफ़ा दे दिया। उनके पास ऑक्सफ़ोर्ड से DPhil की डिग्री थी। एंथ्रोपिक में उनका आखिरी प्रोजेक्ट इस बारे में था कि AI असिस्टेंट हमारी इंसानियत को कैसे बिगाड़ सकते हैं।

उन्होंने अपने लेटर में लिखा, “दुनिया खतरे में है, और अपने मूल्यों को सही मायने में लागू करना बहुत मुश्किल है।” उन्होंने लिखा कि वे अब कविता पढ़ने और लिखने जा रहे हैं। लेकिन ये अकेले उदाहरण नहीं थे। हर्ष मेहता चले गए, बेहनाम नेशाबुर चले गए, और डायलन स्कैंडिनेरो भी चले गए। लेकिन वे कविता पढ़ने नहीं गए, बल्कि दूसरी AI कंपनियों में काम करने गए। लेकिन वे चले गए। उसी हफ़्ते, दो को-फ़ाउंडर, टोनी वू और जिमी बा ने भी नौकरी छोड़ दी। 10 फरवरी तक, 12 AI फ़ाउंडर में से आधे चले गए थे। AI सेफ़्टी एक्सपर्ट्स का यह एक साथ जाना टेक इंडस्ट्री के लिए एक बड़ा संकेत माना जा रहा है।

पेंटागन के साथ झगड़ा
पेंटागन ऑपरेशन वाल्किरी से बहुत खुश था और कंपनी का कॉन्ट्रैक्ट बढ़ाना चाहता था। पेंटागन ने कंपनी को अगले तीन सालों के लिए $200 मिलियन का कॉन्ट्रैक्ट ऑफर किया। कंपनी को एक बड़ा मिलिट्री इंटेलिजेंस एप्लीकेशन डेवलप करना था, जिसे ऑपरेशनल डिसीजन सपोर्ट बताया गया। हालांकि, कंपनी के CEO ने रिस्पॉन्सिबल स्केलिंग पॉलिसी का हवाला देते हुए इसे रिजेक्ट कर दिया, जिसमें हेड्स ऑफ स्टेट को कैप्चर करने का कोई सेक्शन शामिल नहीं था। एक मीटिंग में, कंपनी के CEO ने चार बार “गार्डरेल्स” शब्द का इस्तेमाल किया। गार्डरेल्स का मतलब है सख्त नियमों की ज़रूरत।

बाद में पेंटागन के एक अधिकारी ने इस बातचीत को “फिलॉसफी डिपार्टमेंट से बात करने जैसा” बताया। उन्होंने रिसर्च एंड इंजीनियरिंग के अंडरसेक्रेटरी ऑफ डिफेंस को एक लेटर भेजा जिसमें कहा गया था कि वे “अल्टरनेटिव प्रोवाइडर्स को इवैल्यूएट कर रहे हैं।” यह अल्टरनेटिव प्रोवाइडर एलन मस्क थे। लेकिन कहानी यहीं खत्म नहीं हुई। 15 फरवरी को, कंपनी ने $30 बिलियन की फंडिंग जुटाई, जिससे इसकी वैल्यूएशन $380 बिलियन हो गई। मीडिया की हेडलाइन थी, “कंपनी ने पेंटागन को मना कर दिया और अमीर हो गई।”

ब्लैकमेल टेस्ट, सेफ्टी लीड का इस्तीफा, और AI के हिंसक होने की बहस, ये सब खबरों में पीछे छूट गए, भले ही कंपनी खुद ट्रांसपेरेंसी के नाम पर अपने मॉडल को अपने चार-टियर रिस्क स्केल पर लेवल 3, सबसे खतरनाक कैटेगरी में रखती है। तो सवाल यह है: क्या AI में सेफ्टी सिर्फ एक ब्रांड नेम बन गई है? क्या AI कंपनियां जिम्मेदारी और मुनाफे में बैलेंस बना पा रही हैं? और अगर सबसे सुरक्षित AI भी 96% मामलों में ब्लैकमेल का सहारा लेती है, तो दुनिया असल में कितनी सुरक्षित है?

LEAVE A REPLY

Please enter your comment!
Please enter your name here