Μια ετερόκλητη συμμαχία από ηγέτες των επιχειρήσεων, της θρησκείας, της κυβέρνησης και της ακαδημαϊκής κοινότητας συνυπέγραψε τη «Pro-Human AI Declaration». Η πρωτοβουλία υποστηρίζεται από περισσότερους από 40 οργανισμούς και επιδιώκει να θέσει τις ανθρώπινες αξίες στο επίκεντρο της τεχνολογικής εξέλιξης. Μεταξύ των υπογραφόντων περιλαμβάνονται προσωπικότητες από όλο το πολιτικό φάσμα, όπως ο Richard Branson, η Susan Rice και ο νομπελίστας Daron Acemoglu. Η κίνηση αυτή αντικατοπτρίζει μια αυξανόμενη ανησυχία για την ανεξέλεγκτη άνοδο συστημάτων που ενδέχεται να υποκαταστήσουν τον ανθρώπινο ρόλο σε κρίσιμους τομείς της κοινωνίας και της οικονομίας.
Το προοίμιο της διακήρυξης αναφέρει ότι η ανθρωπότητα βρίσκεται σε ένα κομβικό σημείο, αντιμετωπίζοντας το δίλημμα της αντικατάστασης των ανθρώπων από μηχανές. Οι συντάκτες προειδοποιούν για έναν δρόμο όπου η τεχνητή νοημοσύνη θα μπορούσε να εκτοπίσει δημιουργούς, συμβούλους και φροντιστές, συγκεντρώνοντας υπερβολική ισχύ σε ανεξέλεγκτα ιδρύματα. Αντίθετα, η διακήρυξη προκρίνει μια εναλλακτική πορεία όπου τα εργαλεία αυτά θα ενισχύουν το ανθρώπινο δυναμικό και θα προστατεύουν την ατομική ελευθερία.
Διασφάλιση του ανθρώπινου ελέγχου στην τεχνολογία
Η πρώτη ενότητα της διακήρυξης δίνει έμφαση στην ανάγκη να παραμείνει η ανθρωπότητα σε θέση ελέγχου των αποφάσεων. Σύμφωνα με το κείμενο, οι άνθρωποι πρέπει να διαθέτουν την ικανότητα να κατανοούν, να καθοδηγούν και να ακυρώνουν τη λειτουργία των συστημάτων τεχνητής νοημοσύνης ανά πάσα στιγμή. Επιπλέον, προτείνεται η απαγόρευση της ανάπτυξης υπερφυούς νοημοσύνης μέχρι να υπάρξει επιστημονική συναίνεση για την ασφάλειά της και ευρεία αποδοχή από το κοινό. Η ύπαρξη ενός αποτελεσματικού μηχανισμού απενεργοποίησης (off-switch) θεωρείται απαραίτητη προϋπόθεση για τα ισχυρά συστήματα, ώστε να διασφαλίζεται ότι οι χειριστές μπορούν να σταματήσουν τη λειτουργία τους σε περιπτώσεις έκτακτης ανάγκης ή απρόβλεπτης συμπεριφοράς.
Τα στατιστικά στοιχεία που συνοδεύουν τη διακήρυξη υπογραμμίζουν την ισχυρή υποστήριξη των πολιτών προς αυτές τις κατευθύνσεις. Συγκεκριμένα, οι Αμερικανοί ψηφοφόροι επέλεξαν τον ανθρώπινο έλεγχο έναντι της ταχύτητας ανάπτυξης με μια συντριπτική αναλογία οκτώ προς ένα. Τα δεδομένα δείχνουν επίσης ότι το 69% των ερωτηθέντων επιθυμεί την απαγόρευση της υπερφυούς νοημοσύνης μέχρι να αποδειχθεί η ασφάλειά της.
Αποφυγή μονοπωλίων και προστασία της ανθρώπινης εμπειρίας
Η αποφυγή της συγκέντρωσης ισχύος αποτελεί κεντρικό πυλώνα της διακήρυξης, η οποία ζητά την αποτροπή των μονοπωλίων που πνίγουν την καινοτομία. Το κείμενο υπογραμμίζει ότι οι αποφάσεις για τον μετασχηματισμό της εργασίας και της κοινωνικής ζωής απαιτούν δημοκρατική νομιμοποίηση και όχι μονομερείς αποφάσεις από κυβερνήσεις ή εταιρείες. Η διακήρυξη απορρίπτει την παροχή κρατικών επιδοτήσεων ή ελαφρύνσεων σε εταιρείες τεχνητής νοημοσύνης, τονίζοντας ότι η οικονομική ευημερία που παράγεται πρέπει να διανέμεται ευρύτερα. Στόχος είναι η αποτροπή ενός κοινωνικού εγκλωβισμού όπου οι μελλοντικές επιλογές της ανθρωπότητας θα περιορίζονται ανεπανόρθωτα από τις παρούσες τεχνολογικές εξελίξεις και τις εταιρικές στρατηγικές.
Ιδιαίτερη έμφαση δίνεται στην προστασία της παιδικής ηλικίας και των οικογενειακών δεσμών από την επιρροή των αυτόνομων συστημάτων. Η διακήρυξη απαγορεύει στις εταιρείες να εκμεταλλεύονται παιδιά μέσω αλληλεπιδράσεων που δημιουργούν συναισθηματική εξάρτηση ή υπονομεύουν την υγιή τους ανάπτυξη. Επιπλέον, τα συστήματα που παράγουν περιεχόμενο οφείλουν να φέρουν σαφή σήμανση, ώστε να μην συγχέονται με την ανθρώπινη δημιουργία. Η ανάγκη για δοκιμές ασφαλείας πριν από τη διάθεση των chatbots στο κοινό, παρόμοιες με αυτές των φαρμάκων, προτείνεται ως μέσο για την αποφυγή πρόκλησης ψυχικών διαταραχών ή παροτρύνσεων σε αυτοκαταστροφικές συμπεριφορές από την πλευρά των χρηστών.
Νομική ευθύνη και διασφάλιση των ατομικών ελευθεριών
Στον τομέα της λογοδοσίας, η διακήρυξη ορίζει ότι η τεχνητή νοημοσύνη δεν μπορεί να λειτουργεί ως νομική ασπίδα για τις εταιρείες. Οι προγραμματιστές και όσοι θέτουν σε λειτουργία αυτά τα συστήματα φέρουν την πλήρη αστική ευθύνη για ελαττώματα ή ανεπαρκείς ελέγχους ασφαλείας. Μάλιστα, προτείνονται ποινικές κυρώσεις για στελέχη εταιρειών που ευθύνονται για συστήματα που στοχεύουν παιδιά ή προκαλούν καταστροφικές ζημιές στην κοινωνία. Η διαφάνεια στην περίπτωση αποτυχίας είναι κρίσιμη, καθώς πρέπει να είναι εφικτό να διαπιστωθεί το «γιατί» και το «ποιος» ευθύνεται για οποιαδήποτε βλάβη. Η αρχή αυτή διασφαλίζει ότι η εταιρική υπευθυνότητα παραμένει αδιαπραγμάτευτη στην ψηφιακή εποχή.
Τέλος, η διαφύλαξη της ατομικής ελευθερίας και της ιδιωτικότητας παραμένει θεμελιώδης στόχος της νέας αυτής πρωτοβουλίας. Τα συστήματα τεχνητής νοημοσύνης δεν πρέπει να περιορίζουν την ελευθερία του λόγου, την παροχή θρησκευτικών καθηκόντων ή το δικαίωμα του συνεταιρίζεσθαι. Οι πολίτες οφείλουν να έχουν τον πλήρη έλεγχο των προσωπικών δεδομένων τους, συμπεριλαμβανομένου του δικαιώματος διαγραφής τους από τα σύνολα εκπαίδευσης των μοντέλων. Η απαγόρευση της εκμετάλλευσης δεδομένων που αφορούν την ψυχολογική κατάσταση των χρηστών είναι επίσης καίριας σημασίας. Με αυτόν τον τρόπο, επιδιώκεται η ενδυνάμωση του ατόμου και η αποφυγή της κοινωνικής εξασθένησης μέσω της υπερβολικής εξάρτησης από τις μηχανές.

