Ένας οδικός χάρτης για την τεχνητή νοημοσύνη, αν κάποιος θα ακούσει


Ενώ η ρήξη της Ουάσιγκτον με την Anthropic αποκάλυψε την παντελή έλλειψη συνεκτικών κανόνων που να διέπουν την τεχνητή νοημοσύνη, ένας δικομματικός συνασπισμός στοχαστών έχει συγκεντρώσει κάτι που η κυβέρνηση έχει μέχρι στιγμής αρνηθεί να παράγει: ένα πλαίσιο για το πώς θα έπρεπε να είναι στην πραγματικότητα η υπεύθυνη ανάπτυξη AI.

Ο Διακήρυξη υπέρ του ανθρώπου οριστικοποιήθηκε πριν από την αντιπαράθεση Πενταγώνου-Anthropic την περασμένη εβδομάδα, αλλά η σύγκρουση των δύο γεγονότων δεν χάθηκε από κανέναν εμπλεκόμενο.

«Υπάρχει κάτι πολύ αξιοσημείωτο που συνέβη στην Αμερική μόλις τους τελευταίους τέσσερις μήνες», δήλωσε ο Max Tegmark, ο φυσικός του MIT και ερευνητής AI που βοήθησε στην οργάνωση της προσπάθειας. σε συνομιλία με αυτόν τον επεξεργαστή. «Δημοσκοπήσεις ξαφνικά [is showing] ότι το 95% όλων των Αμερικανών αντιτίθεται σε μια άναρχη κούρσα της υπερκατανοίας».

Το πρόσφατα δημοσιευμένο έγγραφο, υπογεγραμμένο από εκατοντάδες εμπειρογνώμονες, πρώην αξιωματούχους και δημόσια πρόσωπα, ξεκινά με τη μη ανόητη παρατήρηση ότι η ανθρωπότητα βρίσκεται σε διχάλα στον δρόμο. Ένα μονοπάτι, το οποίο η διακήρυξη αποκαλεί «ο αγώνας για την αντικατάσταση», οδηγεί στο να αντικατασταθούν οι άνθρωποι πρώτα ως εργαζόμενοι, μετά ως υπεύθυνοι λήψης αποφάσεων, καθώς η εξουσία συσσωρεύεται σε ανυπεύθυνα ιδρύματα και τις μηχανές τους. Το άλλο οδηγεί σε τεχνητή νοημοσύνη που διευρύνει μαζικά το ανθρώπινο δυναμικό.

Το τελευταίο σενάριο εξαρτάται από πέντε βασικούς πυλώνες: τη διατήρηση των ανθρώπων επικεφαλής, την αποφυγή της συγκέντρωσης ισχύος, την προστασία της ανθρώπινης εμπειρίας, τη διατήρηση της ατομικής ελευθερίας και τη νομική ευθύνη των εταιρειών AI. Μεταξύ των πιο μυϊκών διατάξεών του είναι μια πλήρης απαγόρευση για την ανάπτυξη υπερνοημοσύνης έως ότου υπάρξει επιστημονική συναίνεση ότι μπορεί να γίνει με ασφάλεια και γνήσια δημοκρατική εξαγορά. υποχρεωτικοί διακόπτες σε ισχυρά συστήματα. και απαγόρευση αρχιτεκτονικών που είναι ικανές για αυτοαναπαραγωγή, αυτόνομη αυτοβελτίωση ή αντίσταση στο κλείσιμο.

Η δημοσίευση της δήλωσης συμπίπτει με μια περίοδο που καθιστά πολύ πιο εύκολο να εκτιμηθεί ο επείγων χαρακτήρας της. Την τελευταία Παρασκευή του Φεβρουαρίου, ο υπουργός Άμυνας Πιτ Χέγκσεθ χαρακτήρισε την Anthropic – της οποίας το AI λειτουργεί ήδη σε διαβαθμισμένες στρατιωτικές πλατφόρμες – ως «κίνδυνο εφοδιαστικής αλυσίδας» αφού η εταιρεία αρνήθηκε να παραχωρήσει στο Πεντάγωνο απεριόριστη χρήση της τεχνολογίας της, μια ετικέτα που συνήθως προορίζεται για εταιρείες με δεσμούς με την Κίνα. Ώρες αργότερα, το OpenAI έκοψε τη δική του συμφωνία με το Υπουργείο Άμυνας, μια συμφωνία που οι νομικοί εμπειρογνώμονες λένε ότι θα είναι δύσκολο να επιβληθεί με οποιοδήποτε ουσιαστικό τρόπο. Αυτό που αποκαλύφθηκε είναι το πόσο δαπανηρή έχει γίνει η αδράνεια του Κογκρέσου για την τεχνητή νοημοσύνη.

Ως Dean Ball, ανώτερος συνεργάτης στο Foundation for American Innovation, είπε στους New York Times στη συνέχεια, “Δεν πρόκειται απλώς για κάποια διαφωνία για ένα συμβόλαιο. Αυτή είναι η πρώτη συζήτηση που είχαμε ως χώρα σχετικά με τον έλεγχο των συστημάτων AI.”

Εκδήλωση Techcrunch

Σαν Φρανσίσκο, Καλιφόρνια
|
13-15 Οκτωβρίου 2026

Ο Tegmark έφτασε σε μια αναλογία που οι περισσότεροι άνθρωποι μπορούν να καταλάβουν όταν μιλήσαμε. «Δεν χρειάζεται ποτέ να ανησυχείτε ότι κάποια φαρμακευτική εταιρεία πρόκειται να κυκλοφορήσει κάποιο άλλο φάρμακο που προκαλεί τεράστια ζημιά προτού οι άνθρωποι καταλάβουν πώς να το κάνουν ασφαλές», είπε, «επειδή η FDA δεν θα τους επιτρέψει να κυκλοφορήσουν τίποτα μέχρι να είναι αρκετά ασφαλές».

Οι πόλεμοι χλοοτάπητα στην Ουάσιγκτον σπάνια προκαλούν το είδος της δημόσιας πίεσης που αλλάζει τους νόμους. Αντίθετα, η Tegmark βλέπει την ασφάλεια των παιδιών ως το σημείο πίεσης που είναι πιο πιθανό να σπάσει το τρέχον αδιέξοδο. Πράγματι, η δήλωση απαιτεί υποχρεωτικές δοκιμές πριν από την ανάπτυξη προϊόντων τεχνητής νοημοσύνης —ιδιαίτερα chatbots και συνοδευτικών εφαρμογών που απευθύνονται σε νεότερους χρήστες— που καλύπτουν κινδύνους όπως αυξημένο αυτοκτονικό ιδεασμό, επιδείνωση καταστάσεων ψυχικής υγείας και συναισθηματική χειραγώγηση.

«Αν κάποιος ανατριχιαστικός ηλικιωμένος στέλνει μήνυμα σε ένα 11χρονο προσποιούμενο ότι είναι ένα νεαρό κορίτσι και προσπαθεί να πείσει αυτό το αγόρι να αυτοκτονήσει, ο τύπος μπορεί να πάει φυλακή για αυτό», είπε ο Tegmark. “Έχουμε ήδη νόμους. Είναι παράνομο. Γιατί είναι διαφορετικό αν το κάνει μια μηχανή;”

Πιστεύει ότι μόλις καθιερωθεί η αρχή των δοκιμών πριν από την κυκλοφορία για τα παιδικά προϊόντα, το πεδίο εφαρμογής θα διευρυνθεί σχεδόν αναπόφευκτα. “Οι άνθρωποι θα έρθουν και θα είναι σαν — ας προσθέσουμε μερικές άλλες απαιτήσεις. Ίσως θα έπρεπε επίσης να δοκιμάσουμε ότι αυτό δεν μπορεί να βοηθήσει τους τρομοκράτες να κατασκευάσουν βιολογικά όπλα. Ίσως θα έπρεπε να δοκιμάσουμε για να βεβαιωθούμε ότι η υπερκατασκοπία δεν έχει την ικανότητα να ανατρέψει την κυβέρνηση των ΗΠΑ.”

Δεν είναι μικρό που ο πρώην σύμβουλος του Τραμπ, Στιβ Μπάνον και η Σούζαν Ράις, σύμβουλος Εθνικής Ασφάλειας του Προέδρου Ομπάμα, υπέγραψαν το ίδιο έγγραφο — μαζί με τον πρώην Πρόεδρο των Κοινών Αρχηγών Μάικ Μάλεν και τους προοδευτικούς θρησκευτικούς ηγέτες.

«Αυτό στο οποίο συμφωνούν, φυσικά, είναι ότι όλοι είναι άνθρωποι», λέει ο Tegmark. «Αν πρόκειται να καταλήξουμε στο αν θέλουμε ένα μέλλον για τους ανθρώπους ή ένα μέλλον για τις μηχανές, φυσικά και αυτοί θα είναι στην ίδια πλευρά».



Via: techcrunch.com

Dimitris Marizas
Dimitris Marizashttps://starlinkgreece.gr
Μεταφράζω bits και bytes σε απλά ελληνικά. Λατρεύω την τεχνολογία που λύνει προβλήματα και αναζητώ πάντα το επόμενο "big thing" πριν γίνει mainstream.

Related Articles

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Stay Connected

0ΥποστηρικτέςΚάντε Like
0ΑκόλουθοιΑκολουθήστε

Latest Articles