Η Anthropic αναζητά ειδικό σε όπλα και εκρηκτικά. Να γιατί


Πολλοί άνθρωποι το είδαν για πρώτη φορά στο X: Μια πιο ασυνήθιστη και ανησυχητική αγγελία εργασίας. Κάποιοι υπέθεσαν ότι ήταν αστείο. Σε άλλους υπενθύμισαν την Cyberdyne Systems, την τεχνολογική εταιρεία στο Τελειωτής franchise που κατά λάθος επινοεί το Skynet.

Αλλά στο LinkedIn, όπου μιλούν μια διαφορετική γλώσσα, η Anthropic είχε απλώς δημοσιεύσει μια λίστα αναζητώντας Υπεύθυνος Πολιτικής, Χημικών Όπλων και Εκρηκτικών Υψηλής Απόδοσης. Η περιγραφή εργασίας πρόσθεσε περισσότερες λεπτομέρειες.

«Αυτός ο ρόλος προσφέρει μια μοναδική ευκαιρία να διαμορφώσουμε τον τρόπο με τον οποίο τα συστήματα τεχνητής νοημοσύνης διαχειρίζονται ευαίσθητες πληροφορίες χημικών και εκρηκτικών», αναφέρεται. “Θα συνεργαστείτε με κορυφαίους ερευνητές ασφάλειας τεχνητής νοημοσύνης ενώ αντιμετωπίζετε κρίσιμα προβλήματα για την πρόληψη καταστροφικής κακής χρήσης. Εάν θέλετε να χρησιμοποιήσετε την τεχνογνωσία σας για να διασφαλίσετε ότι τα συστήματα τεχνητής νοημοσύνης θα παραμείνουν ασφαλή και ωφέλιμα, θέλουμε να σας ακούσουμε.”

Το Mashable προσέγγισε την Anthropic και η εταιρεία παρείχε περισσότερο πλαίσιο.

«Οι πολιτικές χρήσης μας απαγορεύουν τη χρήση προϊόντων ή υπηρεσιών Anthropic για την ανάπτυξη ή τον σχεδιασμό όπλων», μας είπε ένας εκπρόσωπος της εταιρείας. “Αυτός ο ρόλος είναι για την ομάδα Διασφαλίσεων που είναι υπεύθυνη για την πρόληψη της κακής χρήσης των μοντέλων μας.”

Ο εκπρόσωπος τόνισε ότι η Anthropic απαγορεύει ρητά την τεχνητή νοημοσύνη ή οποιαδήποτε τεχνολογία της να χρησιμοποιείται για τη δημιουργία όπλων. Αντίθετα, ο διαχειριστής που εδρεύει στη Νέα Υόρκη θα είναι επιφορτισμένος με την κατασκευή και την επιβολή διασφαλίσεων για τη διασφάλιση της ύπαρξης όπλων δεν κατασκευασμένο από την τεχνολογία της Anthropic.

Η εταιρεία επιδιώκει να προσλάβει ειδικούς σε ευαίσθητους τομείς που μπορούν να διασφαλίσουν ότι η τεχνητή νοημοσύνη της Anthropic θα προστατεύεται από κακόβουλα χέρια, είπε ο εκπρόσωπος.

ΔΕΙΤΕ ΕΠΙΣΗΣ:

Ο Claude του Anthropic ξεπερνά το ChatGPT στο App Store

Η Anthropic βρέθηκε πρόσφατα σε μια πολύ δημόσια μάχη με το Υπουργείο Πολέμου (γνωστό και ως Υπουργείο Άμυνας). Η εταιρεία λέει ότι δεν υποχωρεί στις απαιτήσεις της να μην χρησιμοποιείται το AI της για την κατασκευή πλήρως αυτόνομων όπλων ή για την καθιέρωση μαζικής παρακολούθησης ανθρώπων.

Ο υπουργός Άμυνας Πιτ Χέγκσεθ απάντησε στους όρους της Anthropic δηλώνοντας ότι η εταιρεία αποτελεί κίνδυνο της εφοδιαστικής αλυσίδας για την εθνική ασφάλεια της Αμερικής, απαγορεύοντας στο Πεντάγωνο να χρησιμοποιεί την τεχνολογία του μετά από εξάμηνη σταδιακή κατάργηση. Η εταιρεία τότε κατέθεσε μήνυση σύμφωνα με ένα σημείωμα της 5ης Μαρτίου από τον διευθύνοντα σύμβουλο της Anthropic, Dario Amodei.

Εν τω μεταξύ, κάποιοι στο Πεντάγωνο φέρονται δυσκολευόταν να εγκαταλείψει τον Κλονττο μοντέλο AI της Anthropic.

Πίσω τον Φεβρουάριο, Anthropic ανακοίνωσε μια ενημέρωση της πολιτικής της για την ασφάλεια AIγνωστή και ως Πολιτική Υπεύθυνης Κλιμάκωσης. Η εταιρεία δήλωσε ότι αναγκάστηκε να επανεξετάσει τις πολιτικές της για την ασφάλεια — που ορισμένοι θεωρούν ότι είναι ισχυρότερο στον κλάδο — λόγω πολλών παραγόντων, συμπεριλαμβανομένης της έμφασης της ομοσπονδιακής κυβέρνησης στην οικονομική ανάπτυξη έναντι των κανονισμών ασφαλείας.

Όποιος καταλήξει σε αυτόν τον ρόλο διευθυντή πολιτικής, τότε, θα βρεθεί στο επίκεντρο μιας εκρηκτικής συζήτησης. Για να μην αναφέρουμε, ενδεχομένως, την ικανότητα να βοηθάς εμποδίζω μελλοντική απειλή του Skynet.



Via: techcrunch.com

Dimitris Marizas
Dimitris Marizashttps://starlinkgreece.gr
Μεταφράζω bits και bytes σε απλά ελληνικά. Λατρεύω την τεχνολογία που λύνει προβλήματα και αναζητώ πάντα το επόμενο "big thing" πριν γίνει mainstream.

Related Articles

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Stay Connected

0ΥποστηρικτέςΚάντε Like
0ΑκόλουθοιΑκολουθήστε

Latest Articles