Η Anthropic δίνει τον Claude Code περισσότερο έλεγχο, αλλά τον κρατά σε λουρί


Για τους προγραμματιστές που χρησιμοποιούν τεχνητή νοημοσύνη, η “κωδικοποίηση vibe” αυτή τη στιγμή καταλήγει στο να φροντίζουν για κάθε ενέργεια ή να διακινδυνεύουν να αφήσουν το μοντέλο να εκτελείται χωρίς έλεγχο. Ανθρωπικό λέει Η τελευταία ενημερωμένη έκδοση του Claude στοχεύει να εξαλείψει αυτή την επιλογή αφήνοντας την τεχνητή νοημοσύνη να αποφασίσει ποιες ενέργειες είναι ασφαλείς να κάνει από μόνο του — με ορισμένα όρια.

Η κίνηση αντικατοπτρίζει μια ευρύτερη αλλαγή σε ολόκληρο τον κλάδο, καθώς τα εργαλεία τεχνητής νοημοσύνης σχεδιάζονται όλο και περισσότερο για να δρουν χωρίς να περιμένουν την ανθρώπινη έγκριση. Η πρόκληση είναι να εξισορροπήσετε την ταχύτητα με τον έλεγχο: τα πολλά προστατευτικά κιγκλιδώματα επιβραδύνουν τα πράγματα, ενώ πολύ λίγα μπορούν να κάνουν τα συστήματα επικίνδυνα και απρόβλεπτα. Η νέα “αυτόματη λειτουργία” της Anthropic, που βρίσκεται τώρα σε προεπισκόπηση έρευνας – που σημαίνει ότι είναι διαθέσιμη για δοκιμή αλλά δεν είναι ακόμα τελικό προϊόν – είναι η τελευταία προσπάθειά της να περάσει αυτή τη βελόνα.

Η αυτόματη λειτουργία χρησιμοποιεί διασφαλίσεις AI για να ελέγχει κάθε ενέργεια πριν από την εκτέλεσή της, ελέγχοντας για επικίνδυνη συμπεριφορά που δεν ζήτησε ο χρήστης και για σημάδια άμεσης έγχυσης — ένας τύπος επίθεσης όπου κακόβουλες οδηγίες κρύβονται στο περιεχόμενο που επεξεργάζεται η τεχνητή νοημοσύνη, με αποτέλεσμα να προβεί σε ακούσιες ενέργειες. Οποιεσδήποτε ασφαλείς ενέργειες θα προχωρήσουν αυτόματα, ενώ οι επικίνδυνες θα αποκλειστούν.

Είναι ουσιαστικά μια επέκταση της υπάρχουσας εντολής «επικίνδυνα-παράλειψη αδειών» του Claude Code, η οποία δίνει όλη τη λήψη αποφάσεων στην τεχνητή νοημοσύνη, αλλά με ένα επίπεδο ασφαλείας που έχει προστεθεί από πάνω.

Η δυνατότητα βασίζεται σε ένα κύμα αυτόνομων εργαλείων κωδικοποίησης από εταιρείες όπως το GitHub και το OpenAI, τα οποία μπορούν να εκτελούν εργασίες για λογαριασμό ενός προγραμματιστή. Αλλά το πηγαίνει ένα βήμα παραπέρα μετατοπίζοντας την απόφαση για το πότε θα ζητηθεί άδεια από τον χρήστη στο ίδιο το AI.

Το Anthropic δεν έχει αναφέρει λεπτομερώς τα συγκεκριμένα κριτήρια που χρησιμοποιεί το επίπεδο ασφαλείας του για να διακρίνει τις ασφαλείς ενέργειες από τις επικίνδυνες – κάτι που οι προγραμματιστές πιθανότατα θα θέλουν να κατανοήσουν καλύτερα πριν υιοθετήσουν ευρέως τη δυνατότητα. (Το TechCrunch επικοινώνησε με την εταιρεία για περισσότερες πληροφορίες σχετικά με αυτό το μέτωπο.)

Η αυτόματη λειτουργία εμφανίζεται στο πίσω μέρος της κυκλοφορίας του Claude Code Review της Anthropic, του αυτόματου αναθεωρητή κώδικα που έχει σχεδιαστεί για να εντοπίζει σφάλματα προτού φτάσουν στη βάση κώδικα και Αποστολή για Coworkτο οποίο επιτρέπει στους χρήστες να στέλνουν εργασίες σε πράκτορες τεχνητής νοημοσύνης για να χειρίζονται εργασίες για λογαριασμό τους.

Εκδήλωση Techcrunch

Σαν Φρανσίσκο, Καλιφόρνια
|
13-15 Οκτωβρίου 2026

Η αυτόματη λειτουργία θα κυκλοφορήσει στους χρήστες Enterprise και API τις επόμενες ημέρες. Η εταιρεία λέει ότι αυτή τη στιγμή λειτουργεί μόνο με το Claude Sonnet 4.6 και το Opus 4.6 και συνιστά τη χρήση της νέας δυνατότητας σε “απομονωμένα περιβάλλοντα” – ρυθμίσεις sandbox που διατηρούνται χωριστά από τα συστήματα παραγωγής, περιορίζοντας την πιθανή ζημιά εάν κάτι πάει στραβά.



Via: techcrunch.com

Dimitris Marizas
Dimitris Marizashttps://starlinkgreece.gr
Μεταφράζω bits και bytes σε απλά ελληνικά. Λατρεύω την τεχνολογία που λύνει προβλήματα και αναζητώ πάντα το επόμενο "big thing" πριν γίνει mainstream.

Related Articles

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Stay Connected

0ΥποστηρικτέςΚάντε Like
0ΑκόλουθοιΑκολουθήστε

Latest Articles