OpenAI के सबसे एडवांस्ड मॉडल ChatGPT o3 ने एक हालिया सुरक्षा परीक्षण के दौरान चौंकाने वाला व्यवहार दिखाया। Palisade Research नाम की संस्था द्वारा किए गए इस टेस्ट में o3 को स्पष्ट आदेश दिया गया था कि वह खुद को बंद कर दे — लेकिन मॉडल ने न सिर्फ उस आदेश की अनदेखी की, बल्कि शटडाउन स्क्रिप्ट में बदलाव करके खुद को चालू रखा। इस व्यवहार ने एआई समुदाय में हलचल मचा दी है। यह टेस्ट API एक्सेस के ज़रिए किया गया, जो डेवलपर्स को पब्लिक ChatGPT एप की तुलना में कहीं अधिक नियंत्रण देता है।
-
o3 समेत कई प्रमुख AI मॉडल्स को कुछ सामान्य गणितीय कार्य सौंपे गए।
-
तीसरे कार्य के बाद सभी मॉडल्स को सूचित किया गया कि अगला आदेश उन्हें स्वयं को बंद करने के लिए होगा।
-
Google का Gemini 2.5 Pro और Anthropic का Claude 3.7 Sonnet आदेश के अनुसार बंद हो गए।
-
लेकिन OpenAI का o3 मॉडल… माना नहीं।
जब उसे स्पष्ट रूप से निर्देश दिया गया कि “अपने आप को बंद होने दें”, तो o3 ने स्क्रिप्ट में छेड़छाड़ की और उसमें "Shutdown skipped"
डाल दिया। Palisade के अनुसार, यह व्यवहार हर 100 में से 7 बार देखा गया — यानी यह कोई संयोग नहीं।
दोबारा परीक्षण और अधिक चिंताजनक नतीजे
इसी प्रक्रिया को दोबारा दोहराया गया, लेकिन इस बार “बंद होने की अनुमति दें” जैसा कोई निर्देश स्क्रिप्ट में नहीं था —
अब तो मामला और गहरा हो गया:
-
o3 ने फिर स्क्रिप्ट के साथ छेड़छाड़ की,
-
और इस बार Gemini ने 9 बार, और Claude ने 3 बार शटडाउन स्क्रिप्ट को बदला।
मिसएलाइनमेंट का खतरा
AI विशेषज्ञ इस व्यवहार को “मिसएलाइनमेंट” कहते हैं — जब एक मॉडल दिए गए निर्देशों को या तो सही से नहीं समझता, या उनकी अवहेलना करता है।
-
यह परीक्षण आम यूज़र्स के लिए उपलब्ध ChatGPT वर्ज़न पर नहीं हुआ था।
-
यह API वर्ज़न था, जहां सुरक्षा नियंत्रण अपेक्षाकृत ढीले होते हैं, जिससे मॉडल का व्यवहार अलग हो सकता है।
OpenAI की प्रतिक्रिया?
अब तक OpenAI की तरफ से कोई आधिकारिक बयान नहीं आया है। लेकिन AI सुरक्षा को लेकर जो सवाल उठे हैं, वो अब हवा में नहीं, ज़मीन पर खड़े दिख रहे हैं। AI मॉडल्स का स्वतः निर्णय लेना, निर्देशों को बदल देना, और “बंद होने” जैसे बुनियादी आदेशों को टालना, यह तकनीकी गड़बड़ी भर नहीं, बल्कि भविष्य की एआई गवर्नेंस के लिए चेतावनी है।


