<h3>समीक्षा</h3>
<p>The <span class="key-term" data-definition="European Union — a political and economic union of 27 European countries that formulates common policies, including technology regulation (GS2: Polity)">EU</span> ने अमेरिकी कृत्रिम बुद्धिमत्ता कंपनी <span class="key-term" data-definition="Anthropic — an American AI research company specializing in large‑language models, notable for its safety‑first approach (GS3: Economy)">Anthropic</span> के साथ औपचारिक बातचीत शुरू की है। चर्चा उनके नवीनतम मॉडल, <span class="key-term" data-definition="Claude Mythos — the latest large‑language model from Anthropic, designed to generate code and text but flagged for its ability to uncover software flaws (GS3: Economy)">Claude Mythos</span> की क्षमताओं पर केंद्रित है। नियामक और डेवलपर दोनों को चिंता है कि यह मॉडल <span class="key-term" data-definition="Hackers — individuals or groups that exploit digital vulnerabilities for illicit gain, raising security and ethical challenges (GS4: Ethics)">हैकर्स</span> के लिए एक उपकरण बन सकता है, जिससे इसकी पूरी व्यावसायिक लॉन्च को स्थगित किया गया है।</p>
<h3>मुख्य विकास</h3>
<ul>
<li>EU अधिकारियों ने Claude Mythos की सुरक्षा प्रभावों का आकलन करने के लिए Anthropic के साथ संवाद शुरू किया है।</li>
<li>Anthropic ने स्वयं यह चिंता व्यक्त की है कि मॉडल की सॉफ़्टवेयर कमजोरियों को उजागर करने की क्षमता का दुरुपयोग हो सकता है।</li>
<li>एक सावधानी के तौर पर, कंपनी ने नियामक समीक्षा के इंतजार में मॉडल की पूरी तैनाती को विलंबित कर दिया है।</li>
</ul>
<h3>महत्वपूर्ण तथ्य</h3>
<p>मॉडल की मुख्य ताकत कोडबेस का विश्लेषण करने और कमजोरियों की पहचान करने की उसकी क्षमता में निहित है, जो विकासकों के लिए उपयोगी होने के साथ-साथ दुर्भावनापूर्ण अभिनेताओं के लिए प्रवेश बाधा को कम करता है। EU की रुचि <span class="key-term" data-definition="EU AI Act — a legislative proposal aimed at establishing a risk‑based regulatory regime for AI systems across Europe, emphasizing safety, transparency and accountability (GS2: Polity)">EU AI Act</span> के व्यापक ढांचे के साथ मेल खाती है, जो उच्च‑जोखिम AI अनुप्रयोगों को सार्वजनिक सुरक्षा या सुरक्षा को खतरे में डालने से रोकने का लक्ष्य रखता है।</p>
<p>Anthropic का लॉन्च को स्थगित करने का निर्णय उद्योग में बढ़ती स्व‑नियमन प्रवृत्ति को दर्शाता है, जहाँ कंपनियाँ जोखिम मूल्यांकन पूर्ण होने तक शक्तिशाली मॉडलों की तैनाती को स्वेच्छा से सीमित करती हैं।</p>
<h3>UPSC प्रासंगिकता</h3>
<p>उम्मीदवारों के लिए, यह घटना AI नवाचार, अंतर्राष्ट्रीय नियामक सहयोग और साइबर सुरक्षा के संगम को दर्शाती है। यह समझने की आवश्यकता पर बल देती है:</p>
<ul>
<li>EU जैसे अंतर्राष्ट्रीय निकाय तकनीकी शासन को कैसे प्रभावित करते हैं।</li>
<li>AI तैनाती में नैतिक विचारों की भूमिका, विशेषकर ...</li>
</ul>