ओपनएआई की रोबोटिक्स टीम की प्रमुख कैटलिन कालिनोव्स्की ने कंपनी छोड़ दी है। उन्होंने अमेरिकी रक्षा विभाग पेंटागन के साथ हुए करार पर चिंता जताई, क्योंकि इसमें निगरानी यानी सर्विलांस और स्वचालित हथियारों यानी ऑटोनॉमस वेपन्स के इस्तेमाल का ख़तरा है। कैटलिन ने 7 मार्च को एक्स और लिंक्डइन पर अपने इस्तीफे के बारे में जानकारी साझा की।
कैटलिन ने पोस्ट में लिखा, 'मैंने ओपनएआई से इस्तीफा दे दिया है। रोबोटिक्स टीम और हमने साथ मिलकर जो काम किया, उसकी मुझे बहुत फिक्र है। यह फैसला आसान नहीं था। एआई का राष्ट्रीय सुरक्षा में अहम रोल है। लेकिन अमेरिकियों की बिना अदालती निगरानी के सर्विलांस और बिना इंसानी अनुमति के घातक स्वचालित हथियार - ये ऐसी लाइनें हैं जिन पर ज्यादा विचार-विमर्श होना चाहिए था। यह सिद्धांत की बात है, लोगों की नहीं। मैं सैम ऑल्टमैन और टीम का बहुत सम्मान करती हूं और हमने जो बनाया, उस पर मुझे गर्व है।'
कैटलिन नवंबर 2024 से ओपनएआई में हार्डवेयर और रोबोटिक इंजीनियरिंग टीमों की लीडर थीं। वे कंपनी में रोबोटिक्स और कंज्यूमर हार्डवेयर पर काम कर रही थीं, ताकि एआई को असली दुनिया में लाया जा सके।

कैटलिन की बड़ी चिंता क्या?

यह इस्तीफा ऐसे समय में आया है जब ओपनएआई और पेंटागन के बीच क़रार को लेकर विवाद बढ़ रहा है। हाल ही में एंथ्रोपिक कंपनी ने पेंटागन के साथ बातचीत तोड़ दी थी, क्योंकि वे घरेलू सर्विलांस और ऑटोनॉमस वेपन्स पर सख्त पाबंदी चाहते थे। उसके तुरंत बाद ओपनएआई ने पेंटागन से समझौता कर लिया, जिसमें उसके एआई मॉडल्स को अमेरिकी सरकार के गुप्त नेटवर्क पर इस्तेमाल करने की अनुमति दी गई।
ताज़ा ख़बरें
कुछ कर्मचारियों और विशेषज्ञों ने कहा कि ओपनएआई ने एंथ्रोपिक के मना करने के बाद जल्दबाजी में यह डील की। सीईओ सैम ऑल्टमैन ने बाद में माना कि यह डील अवसरवादी लग रही है। कंपनी ने अब साफ़ किया है कि उसके सिस्टम का इस्तेमाल घरेलू सर्विलांस या ऑटोनॉमस वेपन्स के लिए नहीं होगा- ये उनकी 'रेड लाइन्स' हैं। 
फॉर्च्यून की रिपोर्ट के अनुसार ओपनएआई के प्रवक्ता ने कहा, 'हमारा पेंटागन के साथ समझौता एआई के जिम्मेदार राष्ट्रीय सुरक्षा इस्तेमाल के लिए रास्ता बनाता है, जबकि हमारी रेड लाइन्स साफ़ हैं: कोई घरेलू सर्विलांस नहीं और कोई ऑटोनॉमस वेपन्स नहीं। हम जानते हैं कि इस मुद्दे पर लोगों की मजबूत राय है और हम कर्मचारियों, सरकार, सिविल सोसाइटी और दुनिया भर के समुदायों से बातचीत जारी रखेंगे।'
दुनिया से और ख़बरें
कैटलिन पहले मेटा में करीब ढाई साल हार्डवेयर एग्जीक्यूटिव थीं। उन्होंने मेटा के 'ओरियन' प्रोजेक्ट को लीड किया, जो दुनिया का सबसे एडवांस्ड एआर ग्लासेस प्रोटोटाइप है। इसे सितंबर में दिखाया गया था। इससे पहले वह 9 साल से ज़्यादा मेटा की कंपनी ओकुलस में वर्चुअल रियलिटी हेडसेट्स पर काम कर चुकी थीं। और उससे पहले वह एप्पल में लगभग 6 साल मैकबुक प्रो और एयर मॉडल्स के डिजाइन में शामिल रहीं।

एआई के ख़तरे क्या हैं?

एआई इंसान की तरह भावनाएँ, संदर्भ या छोटी-छोटी बातें नहीं समझ सकता। कोई घायल सैनिक को आत्मसमर्पण करते देख भी हमला कर सकता है, या आम नागरिक को दुश्मन समझ सकता है। ऐसे में आशंका है कि बहुत ज्यादा निर्दोष मौतें हो सकती हैं। युद्ध के अंतरराष्ट्रीय कानून को एआई पूरी तरह पालन नहीं कर पाता। इंसान की जान का डर नहीं रहता, तो नेता आसानी से युद्ध शुरू कर सकते हैं। इससे दुनिया में अस्थिरता बढ़ सकती है।

अगर एआई गलत मार डाले तो दोष किसका होगा? मशीन का? कंपनी का? किसी का नहीं? कोई सजा नहीं मिलेगी। संयुक्त राष्ट्र का कहना है कि ये नैतिक रूप से गलत हैं और 2026 तक इन्हें पूरी तरह बैन करने का क़ानून बनना चाहिए। कई देश और मानवाधिकार संगठन इन्हें रोकने की मांग कर रहे हैं।

आम लोगों की निगरानी

एआई कैमरों, फोन डेटा, सोशल मीडिया, लोकेशन आदि से करोड़ों लोगों की चौबीसों घंटे निगरानी कर सकता है। वह भी बिना किसी इंसान के चेक किए। इससे प्राइवेसी खत्म हो जाएगा। आप कहाँ जाते हैं, क्या बोलते हैं, किससे मिलते हैं– सब कुछ सरकार या कंपनी जान लेगी। इससे डर के मारे लोग आजादी से बोलना-लिखना बंद कर देंगे।
सरकार विरोधियों, पत्रकारों, अल्पसंख्यकों को ट्रैक करके दबा सकती है। या कंपनियाँ आपकी जानकारी बेचकर कमाई कर सकती हैं। एआई चेहरा या व्यवहार से गलत व्यक्ति को अपराधी समझ सकता है। ऐसे में निर्दोष लोग जेल जा सकते हैं।
सर्वाधिक पढ़ी गयी ख़बरें
अगर एआई से जुड़ी सरकार या कोई तानाशाह हो, तो वो पूरे देश को नियंत्रित कर सकता है– जैसे चीन में पहले से हो रहा है, लेकिन अब और तेजी से फैल सकता है। हाल ही में अमेरिका में भी बहस है कि पेंटागन एआई से अमेरिकी नागरिकों की मास सर्विलांस करे या नहीं – कई लोग इसे खतरनाक मानते हैं और कहते हैं कि इससे लोकतंत्र खतरे में पड़ सकता है।
बहरहाल, कैटलिन के इस्तीफ़े की यह घटना एआई कंपनियों में बढ़ते विवाद को दिखाती है कि एआई को मिलिट्री और सुरक्षा में कैसे इस्तेमाल किया जाए। कई लोग मानते हैं कि एआई का गलत इस्तेमाल खतरनाक हो सकता है, खासकर बिना इंसानी नियंत्रण के हथियारों या आम लोगों की निगरानी में। ओपनएआई जैसे बड़े संगठनों में ऐसे फैसलों पर कर्मचारियों की राय बहुत मायने रखती है।