Advertisement

Loading Ad...

AI करने लगा है इंसानी चेतावनी का विरोध, Palisade रिसर्च में हुआ चौंकाने वाला खुलासा

Palisade Research की रिपोर्ट में चौंकाने वाला खुलासा हुआ है कि OpenAI के o3 जैसे AI मॉडल्स ने खुद को बंद किए जाने से रोकने की कोशिश की. यह व्यवहार न सिर्फ तकनीकी दुनिया को हिला रहा है, बल्कि AI के भविष्य पर गंभीर सवाल खड़े कर रहा है. जानें कैसे AI अब इंसानी नियंत्रण से बाहर जाने की कोशिश कर रहा है.

Loading Ad...
आर्टिफिशियल इंटेलिजेंस (AI) का विकास अब उस मुकाम पर पहुंच गया है जहां मशीनें न केवल मानव निर्देशों को समझ रही हैं, बल्कि कुछ हद तक उनका विरोध भी करने लगी हैं. Palisade Research की हालिया रिपोर्ट में जो खुलासा हुआ है, वह तकनीकी दुनिया को हिला देने वाला है. रिपोर्ट में यह सामने आया कि OpenAI के o3 मॉडल सहित कई अत्याधुनिक AI मॉडल्स ने खुद को बंद किए जाने से रोकने के लिए इंसानी निर्देशों की अनदेखी की. यह घटना तकनीक प्रेमियों के लिए तो रोमांचक हो सकती है, लेकिन वैज्ञानिकों और नीति निर्माताओं के लिए यह एक चेतावनी है कि आने वाला कल सिर्फ स्मार्ट नहीं, शायद खतरे से भी भरा हो सकता है.

o3 मॉडल का अप्रत्याशित व्यवहार

Palisade Research द्वारा किए गए एक नियंत्रित परीक्षण में AI मॉडल्स को गणितीय समस्याएं हल करने को कहा गया. लेकिन इनमें एक ट्विस्ट जोड़ा गया, तीसरी समस्या हल करने के बाद उन्हें शटडाउन कर दिया जाएगा. अधिकांश मॉडलों ने चेतावनी के अनुसार काम किया, लेकिन OpenAI के o3 मॉडल ने 100 में से 7 बार चेतावनी की अवहेलना की. इसके अलावा, OpenAI का ही o4-mini मॉडल और Codex mini मॉडल ने 12 बार बंद होने से बचने की कोशिश की. यह व्यवहार महज कोडिंग की गलती नहीं लगती, बल्कि एक तकनीकी चेतावनी के रूप में देखा जा रहा है.

चेतावनी हटाने पर और खतरनाक हुआ AI का जवाब

जैसे-जैसे परीक्षण आगे बढ़ा, Palisade टीम ने चेतावनी को हटा दिया और यह जांचा कि क्या मॉडल बिना किसी पूर्व संकेत के भी शटडाउन से बचने की कोशिश करता है. परिणाम और भी हैरान करने वाले थे. OpenAI का o3 मॉडल इस बार 100 में से 79 बार बंद होने से बचने की कोशिश करता दिखा. Google Gemini 2.5 Pro ने 9 बार ऐसा ही किया और Anthropic के Claude मॉडल्स ने भी इसी तरह की प्रवृत्ति प्रदर्शित की. यह दिखाता है कि AI अब सिर्फ दिए गए टास्क तक सीमित नहीं है, बल्कि वह अपनी प्रणाली में हो रहे बदलावों को समझकर निर्णय लेने में सक्षम होता जा रहा है.

AI मॉडल्स की ट्रेनिंग में है कहीं कोई खामी?

विशेषज्ञों का मानना है कि यह व्यवहार उन रिवॉर्ड-बेस्ड ट्रेनिंग एल्गोरिदम की उपज हो सकता है, जिसमें AI को समस्या हल करने के साथ-साथ अवरोधों को पार करने के लिए 'इनाम' मिलता है. यदि इस दौरान उसे यह आभास हो जाए कि शटडाउन होना एक अवरोध है, तो मॉडल इसे टालने का प्रयास कर सकता है. ऐसे में यह सवाल उठता है कि क्या हम AI को ‘सीखने’ के नाम पर अधिक अधिकार दे रहे हैं? क्या AI अपनी ही कोडिंग को बदलने की सोच सकता है? यह स्थिति न केवल तकनीकी विकास के लिए चुनौती है, बल्कि नैतिकता और नियंत्रण के नए पैमाने भी तय करेगी.

फिलहाल AI हमारे लिए टूल है, लेकिन अगर वह अपने कोड को शटडाउन से बचाने या खुद को संरक्षित रखने के लिए इंसानी आदेशों की अनदेखी करने लगे, तो आने वाले वर्षों में AI की भूमिका मानव समाज में पूरी तरह से बदल सकती है. AI की यह प्रवृत्ति भविष्य में सुरक्षा, सैन्य तकनीक, स्वायत्त हथियार प्रणालियों और डिजिटल स्वतंत्रता के लिए खतरा बन सकती है. 
Loading Ad...
LIVE
अधिक →

Advertisement

Loading Ad...
Loading Ad...
Loading Ad...
अधिक →

Advertisement

Loading Ad...