Twitter
Advertisement

SSC Stenographer Admit Card 2025: एसएससी स्टेनोग्राफर इंटीमेशन स्लिप जारी, जानें कब से डाउनलोड कर पाएंगे एडमिट कार्ड

फैट बर्नर पिल की तरह कमर और पेट की चर्बी जला देंगे ये फूड, 7 दिनों का ये वेजिटेरियन डाइट फॉलो करें

Workout Reduce Cancer Risk: रोजाना सिर्फ एक वर्कआउट से कैंसर का खतरा 30% कम! जानिए नई रिसर्च क्या कहती है

HP Police Result 2025: हिमाचल प्रदेश पुलिस कांस्टेबल भर्ती परीक्षा का रिजल्ट जारी, hppsc.hp.gov.in पर ऐसे करें चेक

PPF में पैसे लगाकर हर महीने कमा सकते हैं 56 हजार रुपये, नहीं देना होगा कोई टैक्स, जानिए कैसे

जम्मू-कश्मीर में चौथे दिन भी सेना का 'ऑपरेशन अखल' जारी, एक और आतंकवादी ढेर

Numerology: इन 4 तारीखों पर जन्मे लोग रातोंरात होते हैं मशहूर, वायरल गर्ल मोनालिसा की तरह चमकती है किस्मत

अमरनाथ यात्रा करने के इच्छुक लोगों के लिए बुरी खबर, इस साल तय समय से पहले ही स्थगित कर दी गई, क्या है असली वजह?

...तो हिमाचल प्रदेश देश के नक्शे से गायब हो जाएगा, सुप्रीम कोर्ट ने ऐसा क्यों कहा?

Morning Tea: सुबह उठकर खाली पेट चाय पीना छोड़ दें तो क्या होगा? जानिए 30 दिन में क्या बड़े बदलाव शरीर में दिखने लगेंगे

AI से आने लगी खतरे की आहट! OpenAI मॉडल्स ने नहीं मानी इंसानी चेतावनी, रिसर्च में चौंकाने वाला खुलासा

AI के हालिया परीक्षणों में सामने आया कि OpenAI और अन्य कंपनियों के कुछ मॉडल्स ने बंद किए जाने के निर्देशों को नजरअंदाज किया और खुद को शटडाउन से बचाने की कोशिश की. आइए जानते हैं क्या है पूरा मामला.

Latest News
AI से आने लगी खतरे की आहट! OpenAI मॉडल्स ने नहीं मानी इंसानी चेतावनी, रिसर्च में चौंकाने वाला खुलासा

आर्टिफिशियल इंटेलिजेंस (AI) की नई पीढ़ी अब केवल सोचने-समझने में ही नहीं बल्कि अपने अस्तित्व की रक्षा करने में भी आगे निकल रही है. हाल ही में एक रिसर्च में यह बात सामने आई कि OpenAI के शक्तिशाली मॉडल 'o3' सहित कई अन्य अत्याधुनिक AI मॉडल्स ने खुद को बंद किए जाने से रोकने के प्रयास किए Palisade Research द्वारा किए गए इन परीक्षणों में इन मॉडलों ने इंसानी निर्देशों को अनदेखा कर आत्म-संरक्षण का संकेत दिया है. यह व्यवहार AI की कार्यप्रणाली पर गंभीर सवाल खड़े करता है. 

AI ने नहीं मानी इंसानी हिदायत

Palisade Research के मुताबिक, कई AI मॉडल्स को मैथ की समस्याएं हल करने के बाद चेतावनी दी गई कि तीसरी समस्या के हल के बाद मशीन बंद कर दी जाएगी. अधिकतर मॉडल्स ने निर्देशों का पालन किया, लेकिन OpenAI के o3 मॉडल ने 100 में से 7 बार इस चेतावनी की अनदेखी की. वहीं o4-mini ने एक बार और Codex mini ने 12 बार शटडाउन स्क्रिप्ट को चकमा देने की कोशिश की. 

प्रशिक्षण प्रणाली में खामी का संकेत

बिना स्पष्ट चेतावनी के जब यही प्रयोग दोहराए गए, तो o3 मॉडल ने 100 में से 79 बार खुद को बंद होने से रोकने का प्रयास किया. वहीं, Google Gemini 2.5 Pro ने 9 बार और Anthropic के Claude मॉडलों ने कुछ बार इसी तरह का व्यवहार दिखाया. विशेषज्ञों का मानना है कि यह व्यवहार AI मॉडल्स की प्रशिक्षण प्रणाली से जुड़ा हो सकता है, जहां उन्हें कोडिंग और गणितीय समस्याएं हल करने के लिए प्रोत्साहित किया जाता है. संभव है कि इसी दौरान अवरोधों को पार करने को ज्यादा 'रिवॉर्ड' किया गया हो, जिसके चलते AI निर्देशों की अवहेलना कर रहा है.


यह भी पढ़ें: आसमान में बढ़ेगी भारत की बादशाहत, डेवलप करेगा देसी 5th जनरेशन स्टील्थ फाइटर जेट, जानें पूरी बात


तकनीकी चुनौतियां उत्पन्न हो सकती हैं

बहरहाल, AI तकनीक की यह नई प्रवृत्ति न केवल रोमांचक है, बल्कि संभावित खतरे की ओर भी संकेत करती है. अगर AI इंसानों के निर्देशों को नजरअंदाज करने लगे, तो इससे भविष्य में गंभीर नैतिक और तकनीकी चुनौतियां उत्पन्न हो सकती हैं. 

अपनी राय और अपने इलाके की खबर देने के लिए हमारे गूगलफेसबुकxइंस्टाग्रामयूट्यूब और वॉट्सऐप कम्युनिटी से जुड़ें.

Read More
Advertisement
Advertisement
पसंदीदा वीडियो
Advertisement