Meta Pixel

‘गोब्लिन’ पर बैन क्यों? OpenAI के Codex में अजीब नियम, लेकिन वजह है बेहद गंभीर

Spread the love

टेक्नोलॉजी की दुनिया में कभी-कभी ऐसी खबरें सामने आती हैं जो सुनने में मज़ेदार लगती हैं, लेकिन उनके पीछे की कहानी काफी गंभीर होती है। इस बार मामला है OpenAI के नए एआई एजेंट Codex का, जिसमें कंपनी ने कुछ बेहद सख्त और पहली नज़र में अजीब लगने वाले नियम जोड़ दिए हैं। इन नियमों के तहत अब यह एआई टूल बिना वजह ‘गोब्लिन’, ‘ग्रेमलिन’ या दूसरे काल्पनिक जीवों का जिक्र नहीं करेगा।

दरअसल, Codex को खासतौर पर कोडिंग और डेवलपमेंट के काम को आसान बनाने के लिए तैयार किया गया है। यह कमांड-लाइन इंटरफेस के जरिए कोड लिखने, उसे रन करने और समस्याओं को सुलझाने में सक्षम है। इसका सीधा मुकाबला Anthropic के Claude जैसे एआई टूल्स से माना जा रहा है। लेकिन हालिया अपडेट में जो बदलाव किए गए हैं, उन्होंने लोगों का ध्यान खींच लिया है।

असल में यह फैसला किसी मजाक या अंधविश्वास की वजह से नहीं लिया गया, बल्कि एआई के व्यवहार में आई एक गड़बड़ी के कारण लिया गया है। कंपनी ने पाया कि उनका मॉडल बिना किसी संदर्भ के बार-बार ‘गोब्लिन’ और ऐसे अन्य शब्दों का इस्तेमाल करने लगा था—even जब यूज़र गंभीर तकनीकी सवाल पूछ रहे हों। यह स्थिति खासतौर पर प्रोफेशनल यूज़र्स के लिए परेशानी का कारण बन रही थी, क्योंकि इससे उनका ध्यान भटक रहा था।

जांच में सामने आया कि यह समस्या एआई की ट्रेनिंग के दौरान पैदा हुई। जिन जवाबों में इन शब्दों का इस्तेमाल था, उन्हें गलती से ज्यादा ‘रिवॉर्ड’ यानी बेहतर रेटिंग मिल गई। इसके चलते एआई ने इसे एक सही पैटर्न मान लिया और बार-बार दोहराने लगा। इसे एक तरह का “फीडबैक लूप” कहा जा सकता है—जहां एक छोटी सी ट्रेनिंग गलती धीरे-धीरे बड़ी आदत बन गई।

हालात यहां तक पहुंच गए कि एक अपडेट के बाद ‘गोब्लिन’ जैसे शब्दों का इस्तेमाल 175% तक बढ़ गया। खासतौर पर एआई के “नर्डी” या मजाकिया मोड ने इस समस्या को और बढ़ा दिया, जिससे यह व्यवहार सामान्य जवाबों में भी आने लगा।

इसी को ठीक करने के लिए OpenAI ने Codex के लिए करीब 3,500 शब्दों का एक विस्तृत निर्देश-पत्र तैयार किया है। इसमें न सिर्फ इन अनावश्यक शब्दों पर रोक लगाई गई है, बल्कि एआई को यह भी सख्त निर्देश दिए गए हैं कि वह बिना यूज़र की अनुमति के कोई खतरनाक कमांड—जैसे फाइल डिलीट करना—न चलाए। साथ ही, अनावश्यक इमोजी और गैर-जरूरी बातों से भी बचने को कहा गया है।

हालांकि इंटरनेट पर यह मामला अब एक मीम बन चुका है। कई यूज़र्स ने मजाक में इसे “गोब्लिन मोड” का नाम दे दिया और एआई के इस अजीब व्यवहार को लेकर सोशल मीडिया पर खूब चर्चा हुई। लेकिन असल में यह घटना एआई डेवलपमेंट की एक बड़ी सीख बनकर सामने आई है।

OpenAI का कहना है कि यह उदाहरण दिखाता है कि ट्रेनिंग के दौरान लिए गए छोटे-छोटे फैसले भी एआई के व्यवहार को पूरी तरह बदल सकते हैं। अगर गलत चीजों को बार-बार इनाम मिलता है, तो एआई उसे ही सही मानने लगता है।

कुल मिलाकर, Codex में लगाया गया यह ‘अजीब’ बैन दरअसल एआई को ज्यादा भरोसेमंद, फोकस्ड और प्रोफेशनल बनाने की दिशा में उठाया गया एक जरूरी कदम है। यह बताता है कि एआई जितना स्मार्ट हो रहा है, उतना ही जरूरी है उसे सही दिशा में प्रशिक्षित करना—ताकि वह काम के बीच ‘गोब्लिन’ की कहानी सुनाने न लग जाए।

Leave a Reply

Your email address will not be published. Required fields are marked *