Skip to main content
Loading page, please wait…
HomeCurrent AffairsEditorialsGovt SchemesLearning ResourcesUPSC SyllabusPricingAboutBest UPSC AIUPSC AI ToolAI for UPSCUPSC ChatGPT

© 2026 Vaidra. All rights reserved.

PrivacyTerms
Vaidra Logo
Vaidra

Top 4 items + smart groups

UPSC GPT
New
Current Affairs
Daily Solutions
Daily Puzzle
Mains Evaluator

Version 2.0.0 • Built with ❤️ for UPSC aspirants

U.S. Defence ने Anthropic को AI नैतिकता के रुख के कारण ‘Supply‑Chain Risk’ के रूप में लेबल किया — AI सुरक्षा के लिए निहितार्थ — UPSC Current Affairs | March 5, 2026
U.S. Defence ने Anthropic को AI नैतिकता के रुख के कारण ‘Supply‑Chain Risk’ के रूप में लेबल किया — AI सुरक्षा के लिए निहितार्थ
U.S. Department of Defence ने AI स्टार्ट‑अप Anthropic को ‘supply‑chain risk’ घोषित किया है, क्योंकि कंपनी ने अपने कोडिंग असिस्टेंट Claude को घरेलू निगरानी और स्वायत्त हथियारों के लिए उपयोग करने की अनुमति देने से इनकार कर दिया। यह कदम, OpenAI की त्वरित अनुपालन के विपरीत, राष्ट्रीय सुरक्षा की मांगों और AI सुरक्षा नैतिकता के बीच तनाव को उजागर करता है, जो तकनीकी शासन और रक्षा नीति का अध्ययन करने वाले UPSC अभ्यर्थियों के लिए एक महत्वपूर्ण मुद्दा है।
The U.S. Department of Defence ने AI कंपनी Anthropic को अपनी स्वीकृत आपूर्तिकर्ता सूची से हटा दिया है, और इसे ‘ supply‑chain risk ’ के रूप में लेबल किया है। यह कदम Anthropic के अपने उपकरणों, विशेष रूप से Claude , को व्यापक घरेलू निगरानी या पूर्ण स्वायत्त हथियारों के लिए उपयोग करने से इनकार करने के बाद आया है। मुख्य विकास Anthropic को U.S. की निगरानी और स्वायत्त हथियारों में अपने AI के अनियंत्रित उपयोग की मांग को अस्वीकार करने के बाद एक supply‑chain risk के रूप में लेबल किया गया। यह निर्णय पहले की उन रियायतों से एक तीव्र वृद्धि दर्शाता है, जिनमें Claude के कोड जनरेशन के लिए सीमित रक्षा उपयोग की अनुमति दी गई थी। कई घंटों के भीतर, OpenAI ने U.S. की आवश्यकताओं को पूरा करने की इच्छा जताई, जो Anthropic के रुख के विपरीत है। यह घटना राष्ट्रीय सुरक्षा की आवश्यकताओं और उभरते AI safety मानकों के बीच तनाव को उजागर करती है। महत्वपूर्ण तथ्य • Anthropic का इनकार इस चिंता पर आधारित था कि उसकी तकनीक को domestic surveillance और autonomous weaponry के लिए हथियार बनाया जा सकता है। • U.S. रक्षा संस्थान ने पहले Claude का उपयोग सैन्य प्लेटफ़ॉर्म के लिए सॉफ़्टवेयर विकास को तेज करने के लिए किया था। • OpenAI की त्वरित अनुकूलन
  1. Home
  2. Prepare
  3. Current Affairs
  4. U.S. Defence ने Anthropic को AI नैतिकता के रुख के कारण ‘Supply‑Chain Risk’ के रूप में लेबल किया — AI सुरक्षा के लिए निहितार्थ
Must Review
Login to bookmark articles
Login to mark articles as complete

Overview

Full Article

Read Original on hindu

Analysis

Related:Daily•Weekly

Loading related articles...

Loading related articles...

Tip: Click articles above to read more from the same date, or use the back button to see all articles.

Explore:Current Affairs·Editorial Analysis·Govt Schemes·Study Materials·Previous Year Questions·UPSC GPT