Είναι επίσημο: Το Πεντάγωνο έχει χαρακτηρίσει την Anthropic ως κίνδυνο της εφοδιαστικής αλυσίδας


Το Υπουργείο Άμυνας ενημέρωσε επίσημα την ηγεσία της ότι η εταιρεία και τα προϊόντα της έχουν χαρακτηριστεί ως κίνδυνος εφοδιαστικής αλυσίδας, Bloomberg αναφέρει, επικαλούμενη ανώτερο στέλεχος του τμήματος.

Ο χαρακτηρισμός έρχεται μετά από εβδομάδες σύγκρουσης μεταξύ του εργαστηρίου AI και του DOD. Ο Διευθύνων Σύμβουλος της Anthropic, Dario Amodei, αρνήθηκε να επιτρέψει στον στρατό να χρησιμοποιήσει τα συστήματα τεχνητής νοημοσύνης του για μαζική επιτήρηση Αμερικανών ή να τροφοδοτήσει πλήρως αυτόνομα όπλα χωρίς ανθρώπους να βοηθούν στις αποφάσεις στόχευσης ή πυροδότησης. Το Τμήμα έχει υποστηρίξει ότι η χρήση της τεχνητής νοημοσύνης δεν πρέπει να περιορίζεται από ιδιώτη ανάδοχο.

Οι χαρακτηρισμοί κινδύνου της εφοδιαστικής αλυσίδας προορίζονται συνήθως για ξένους αντιπάλους. Η ετικέτα απαιτεί από κάθε εταιρεία ή υπηρεσία που συνεργάζεται με το Πεντάγωνο να πιστοποιεί ότι δεν χρησιμοποιεί μοντέλα της Anthropic.

Το πόρισμα του Πενταγώνου απειλεί να διαταράξει τόσο την εταιρεία όσο και τις δικές της λειτουργίες. Το Anthropic ήταν το μόνο συνοριακό εργαστήριο τεχνητής νοημοσύνης με συστήματα έτοιμα για ταξινόμηση. Ο αμερικανικός στρατός βασίζεται επί του παρόντος στον στην εκστρατεία του στο Ιράν, όπου οι αμερικανικές δυνάμεις χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης για να διαχειριστούν γρήγορα τα δεδομένα για τις επιχειρήσεις τους. Το Claude είναι ένα από τα κύρια εργαλεία που έχουν εγκατασταθεί στο Maven Smart System της Palantir, στο οποίο βασίζονται οι στρατιωτικοί φορείς στη Μέση Ανατολή, σύμφωνα με το Bloomberg.

Η επισήμανση του Anthropic ως κίνδυνος εφοδιαστικής αλυσίδας λόγω αυτής της διαφωνίας είναι μια άνευ προηγουμένου κίνηση από το Υπουργείο, λένε αρκετοί επικριτές. Ο Ντιν Μπαλ, πρώην σύμβουλος τεχνητής νοημοσύνης στον Λευκό Οίκο του Τραμπ, έχει αναφέρεται στον προσδιορισμό Ως «κουδουνίστρα θανάτου» της αμερικανικής δημοκρατίας, η επιχειρηματολογία της κυβέρνησης έχει εγκαταλείψει τη στρατηγική σαφήνεια και το σεβασμό προς όφελος του «θόγκου» φυλετισμού που μεταχειρίζεται τους εγχώριους καινοτόμους χειρότερα από τους ξένους αντιπάλους.

Εκατοντάδες εργαζόμενοι από το και την Google προέτρεψαν το DOD να αποσύρει τον ορισμό του και κάλεσαν το Κογκρέσο να αποσύρει αυτό που θα μπορούσε να εκληφθεί ως ακατάλληλη χρήση εξουσίας εναντίον μιας αμερικανικής εταιρείας τεχνολογίας. Προέτρεψαν επίσης τους ηγέτες τους να σταθούν μαζί για να συνεχίσουν να αρνούνται τις απαιτήσεις του Υπουργείου Υγείας να χρησιμοποιήσουν τα μοντέλα τεχνητής νοημοσύνης τους για εγχώρια μαζική παρακολούθηση και «αυτόνομη θανάτωση ανθρώπων χωρίς ανθρώπινη επίβλεψη».

Το TechCrunch επικοινώνησε με την Anthropic για σχόλια.

Εκδήλωση Techcrunch

Σαν Φρανσίσκο, Καλιφόρνια
|
13-15 Οκτωβρίου 2026

Στη μέση της διαμάχης, το OpenAI σύναψε τη δική του συμφωνία με το Υπουργείο για να επιτρέψει στον στρατό να χρησιμοποιεί τα συστήματά του AI για «όλους τους νόμιμους σκοπούς». Κάποια της εταιρείας δικούς τους υπαλλήλους έχουν εκφράσει την ανησυχία τους για τη διφορούμενη διατύπωση της συμφωνίας, η οποία θα μπορούσε να οδηγήσει ακριβώς στο είδος των χρήσεων που προσπαθούσε να αποφύγει η Anthropic.

Ο Amodei χαρακτήρισε τις ενέργειες του DOD «αντιποιητικές και τιμωρητικές» και σύμφωνα με πληροφορίες είπε ότι η άρνησή του να επαινέσει ή να κάνει δωρεά στον Πρόεδρο Τραμπ συνέβαλε στη διαμάχη με το Πεντάγωνο. Ο Πρόεδρος του OpenAI, Γκρεγκ Μπρόκμαν, υπήρξε ένθερμος υποστηρικτής του Τραμπ, κάνοντας πρόσφατα δωρεές 25 εκατομμύρια δολάρια στο MAGA Inc. Super PAC.



Via: techcrunch.com

Dimitris Marizas
Dimitris Marizashttps://starlinkgreece.gr
Μεταφράζω bits και bytes σε απλά ελληνικά. Λατρεύω την τεχνολογία που λύνει προβλήματα και αναζητώ πάντα το επόμενο "big thing" πριν γίνει mainstream.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ