Το OpenAI ανακοίνωσε νέες προτροπές ασφάλειας ανοιχτού κώδικα για προγραμματιστές, με στόχο την έναρξη μιας μαζικής ανάπτυξης πολιτικών για την προστασία των εφήβων.
Ο πακέτο ασφαλείας βασισμένο σε άμεση περιλαμβάνει καθοδήγηση μοντέλου για κοινούς κινδύνους για την εφηβεία, συστάσεις αναπτυξιακού περιεχομένου και οδηγίες κατάλληλες για την ηλικία για θέματα όπως ο αυτοτραυματισμός, το σεξουαλικό περιεχόμενο και το ρομαντικό παιχνίδι ρόλων, οι επικίνδυνες τάσεις ή οι ιογενείς προκλήσεις και τα επιβλαβή ιδανικά για το σώμα.
Το OpenAI είπε ότι είναι μια πιο ισχυρή εναλλακτική λύση στις κατευθυντήριες γραμμές υψηλού επιπέδου που προσφέρονταν προηγουμένως, διαμορφωμένες ως προτροπές που συνδέονται απευθείας στα συστήματα AI.
Γιατί η μεγιστοποίηση τριβής θα μπορούσε να είναι καλή για τη χρήση της τεχνολογίας σας
Το OpenAI πρόσθεσε νέες αρχές Under-18 στο Model Spec του τον Δεκέμβριο. Λίγους μήνες πριν, η εταιρεία κυκλοφόρησε gpt-oss-safeguardένα ανοιχτό μοντέλο συλλογιστικής που έχει σχεδιαστεί για να βοηθά τους προγραμματιστές στην εφαρμογή των συνθηκών ασφαλείας και στην ταξινόμηση του ασφαλούς και μη ασφαλούς περιεχομένου. Σε αντίθεση με τις παραδοσιακές διαδικασίες ταξινόμησης ασφάλειας, το gpt-oss-safeguard μπορεί να τροφοδοτηθεί απευθείας με τις πολιτικές ασφάλειας της πλατφόρμας και να συναγάγει την πρόθεση της πολιτικής καθώς διακρίνει τα κατάλληλα αποτελέσματα.
Αλλά «ακόμα και οι έμπειρες ομάδες συχνά αγωνίζονται να μεταφράσουν στόχους ασφάλειας υψηλού επιπέδου σε ακριβείς, λειτουργικούς κανόνες, ειδικά επειδή απαιτεί εξειδίκευση στο θέμα και βαθιά γνώση της τεχνητής νοημοσύνης», δήλωσε η OpenAI στο τελευταίο δελτίο τύπου της. “Αυτό μπορεί να οδηγήσει σε κενά στην προστασία, ασυνεπή επιβολή ή υπερβολικά ευρύ φιλτράρισμα. Οι σαφείς, καλά διαμορφωμένες πολιτικές αποτελούν κρίσιμο θεμέλιο για αποτελεσματικά συστήματα ασφαλείας.”
Mashable Light Speed
Το πρόσθετο πακέτο προγραμματιστών σχεδιάστηκε σε συνεργασία με τη μη κερδοσκοπική Common Sense Media και όλοι.αι.
Οι ειδικοί έχουν προειδοποιήσει τους γονείς για την υπερβολική έκθεση σε chatbot ευάλωτων εφήβων, ακόμη και μικρών παιδιών, καθώς οι εταιρείες τεχνητής νοημοσύνης προσπαθούν να χειριστούν τις επιπτώσεις των μοντέλων τους στην ψυχική υγεία των χρηστών. Πέρυσι, το OpenAI μήνυσε οι γονείς του έφηβου Adam Raine στην πρώτη περίπτωση άδικου θανάτου του κλάδου, με την οικογένεια Raine να ισχυρίζεται ότι ένας συνδυασμός σύγχυσης ChatGPT και χαλαρών πολιτικών ασφάλειας ήταν υπεύθυνος για τον θάνατο του γιου τους από αυτοκτονία. Η εταιρεία έχει αρνηθεί τους ισχυρισμούς για αδικήματα και ως απάντηση έχει ενισχύσει τα χαρακτηριστικά ψυχικής υγείας και ασφάλειας των εφήβων, συμπεριλαμβανομένης της διασφάλισης ηλικίας. Ακόμα κι έτσι, οι τρίτοι προγραμματιστές που αδειοδοτούν τα μοντέλα του OpenAI έχουν αγωνιστεί να διατηρήσουν το ίδιο επίπεδο προφυλάξεων ασφαλείας, συμπεριλαμβανομένων των παιδικών παιχνιδιών που λειτουργούν με τεχνητή νοημοσύνη.
Η υπόθεση κατά του OpenAI ακολούθησε πολλαπλές αγωγές κατά αμφιλεγόμενης πλατφόρμας Χαρακτήρας.AI και έθεσε το υπόβαθρο για μια πρόσφατη παράνομη μήνυση θανάτου που κατατέθηκε κατά του ανταγωνιστή του OpenAI, Google και του βοηθού Gemini AI.
Σε όλη τη βιομηχανία, οι εταιρείες τεχνολογίας και κοινωνικών μέσων ενημέρωσης αντιμετωπίζουν μια επίθεση νομικών προκλήσεων σχετικά με τον μακροπρόθεσμο αντίκτυπο των προϊόντων τους στους χρήστες. Τον περασμένο μήνα, ο Διευθύνων Σύμβουλος του Instagram Adam Mosseri και ο επικεφαλής της Meta Μαρκ Ζούκερμπεργκ κατέθεσαν ενώπιον ενός ενόρκου σε μια υπόθεση αποβάθρας που δικάζει πλατφόρμες κοινωνικών μέσων για τις φερόμενες ως εθιστικές αρχές σχεδιασμού τους. Μια ετυμηγορία έχει δεν έχει ακόμη επιτευχθεί.
Η OpenAI είπε ότι το νέο της πακέτο εντολών ασφαλείας δεν είναι ένας “περιεκτικός ή τελικός ορισμός ή εγγύηση της ασφάλειας των εφήβων”. Ο Robbie Torney, επικεφαλής Τεχνητής Νοημοσύνης και ψηφιακών αξιολογήσεων για την Common Sense Media, δήλωσε ότι οι νέες πολιτικές μπορούν να δημιουργήσουν ένα «ουσιαστικό επίπεδο ασφάλειας σε όλο το οικοσύστημα», καλύπτοντας ένα κενό ασφάλειας AI που έχει επιδεινωθεί από την έλλειψη λειτουργικών πολιτικών για τους προγραμματιστές.
Οι προγραμματιστές μπορούν να κατεβάσουν το μοντέλο ασφαλείας του OpenAI Αγκαλιασμένο πρόσωπο και αποκτήστε πρόσβαση στο νέο πακέτο προτροπής GitHub.
Αποκάλυψη: Η Ziff Davis, η μητρική εταιρεία του Mashable, τον Απρίλιο κατέθεσε αγωγή κατά του OpenAI, ισχυριζόμενη ότι παραβίασε τα πνευματικά δικαιώματα του Ziff Davis κατά την εκπαίδευση και τη λειτουργία των συστημάτων AI.
Via: techcrunch.com
