U.S. Defence ने Anthropic को AI नैतिकता के रुख के कारण ‘Supply‑Chain Risk’ के रूप में लेबल किया — AI सुरक्षा के लिए निहितार्थ — UPSC Current Affairs | March 5, 2026
U.S. Defence ने Anthropic को AI नैतिकता के रुख के कारण ‘Supply‑Chain Risk’ के रूप में लेबल किया — AI सुरक्षा के लिए निहितार्थ
U.S. Department of Defence ने AI स्टार्ट‑अप Anthropic को ‘supply‑chain risk’ घोषित किया है, क्योंकि कंपनी ने अपने कोडिंग असिस्टेंट Claude को घरेलू निगरानी और स्वायत्त हथियारों के लिए उपयोग करने की अनुमति देने से इनकार कर दिया। यह कदम, OpenAI की त्वरित अनुपालन के विपरीत, राष्ट्रीय सुरक्षा की मांगों और AI सुरक्षा नैतिकता के बीच तनाव को उजागर करता है, जो तकनीकी शासन और रक्षा नीति का अध्ययन करने वाले UPSC अभ्यर्थियों के लिए एक महत्वपूर्ण मुद्दा है।
The U.S. Department of Defence ने AI कंपनी Anthropic को अपनी स्वीकृत आपूर्तिकर्ता सूची से हटा दिया है, और इसे ‘ supply‑chain risk ’ के रूप में लेबल किया है। यह कदम Anthropic के अपने उपकरणों, विशेष रूप से Claude , को व्यापक घरेलू निगरानी या पूर्ण स्वायत्त हथियारों के लिए उपयोग करने से इनकार करने के बाद आया है। मुख्य विकास Anthropic को U.S. की निगरानी और स्वायत्त हथियारों में अपने AI के अनियंत्रित उपयोग की मांग को अस्वीकार करने के बाद एक supply‑chain risk के रूप में लेबल किया गया। यह निर्णय पहले की उन रियायतों से एक तीव्र वृद्धि दर्शाता है, जिनमें Claude के कोड जनरेशन के लिए सीमित रक्षा उपयोग की अनुमति दी गई थी। कई घंटों के भीतर, OpenAI ने U.S. की आवश्यकताओं को पूरा करने की इच्छा जताई, जो Anthropic के रुख के विपरीत है। यह घटना राष्ट्रीय सुरक्षा की आवश्यकताओं और उभरते AI safety मानकों के बीच तनाव को उजागर करती है। महत्वपूर्ण तथ्य • Anthropic का इनकार इस चिंता पर आधारित था कि उसकी तकनीक को domestic surveillance और autonomous weaponry के लिए हथियार बनाया जा सकता है। • U.S. रक्षा संस्थान ने पहले Claude का उपयोग सैन्य प्लेटफ़ॉर्म के लिए सॉफ़्टवेयर विकास को तेज करने के लिए किया था। • OpenAI की त्वरित अनुकूलन