Η OpenAI ανακοίνωσε την Τρίτη ότι κυκλοφορεί ένα σύνολο προτροπών που μπορούν να χρησιμοποιήσουν οι προγραμματιστές για να κάνουν τις εφαρμογές τους ασφαλέστερες για τους εφήβους. Το εργαστήριο AI είπε ότι το σύνολο των πολιτικές για την ασφάλεια των εφήβων μπορεί να χρησιμοποιηθεί με το μοντέλο ασφαλείας ανοιχτού βάρους που είναι γνωστό ως gpt-oss-safeguard.
Αντί να εργάζονται από την αρχή για να καταλάβουν πώς να κάνουν την τεχνητή νοημοσύνη ασφαλέστερη για τους εφήβους, οι προγραμματιστές μπορούν να χρησιμοποιήσουν αυτές τις προτροπές για να ενισχύσουν αυτό που κατασκευάζουν. Αντιμετωπίζουν ζητήματα όπως η παραστατική βία και το σεξουαλικό περιεχόμενο, τα επιβλαβή σωματικά ιδανικά και συμπεριφορές, οι επικίνδυνες δραστηριότητες και προκλήσεις, το ρομαντικό ή βίαιο παιχνίδι ρόλων και τα προϊόντα και οι υπηρεσίες με περιορισμό ηλικίας.
Αυτές οι πολιτικές ασφαλείας έχουν σχεδιαστεί ως προτροπές, καθιστώντας τις εύκολα συμβατές με άλλα μοντέλα εκτός από το gpt-oss-safeguard, αν και είναι πιθανώς πιο αποτελεσματικές στο οικοσύστημα του OpenAI.
Για να γράψει αυτές τις προτροπές, το OpenAI είπε ότι λειτούργησε με τους επιτηρητές ασφαλείας AI, το Common Sense Media και το Everyone.ai.
«Αυτές οι πολιτικές που βασίζονται σε άμεσες οδηγίες βοηθούν να δημιουργηθεί ένα ουσιαστικό επίπεδο ασφάλειας σε όλο το οικοσύστημα και επειδή κυκλοφορούν ως ανοιχτού κώδικα, μπορούν να προσαρμοστούν και να βελτιωθούν με την πάροδο του χρόνου», δήλωσε ο Robbie Torney, Επικεφαλής AI & Digital Assessments στο Common Sense Media, σε μια δήλωση.
Το OpenAI σημείωσε στο ιστολόγιό του ότι οι προγραμματιστές, συμπεριλαμβανομένων έμπειρων ομάδων, συχνά αγωνίζονται να μετατρέψουν τους στόχους ασφαλείας σε ακριβείς, λειτουργικούς κανόνες.
«Αυτό μπορεί να οδηγήσει σε κενά στην προστασία, ασυνεπή επιβολή ή υπερβολικά ευρύ φιλτράρισμα», έγραψε η εταιρεία. «Οι σαφείς, καλά διαμορφωμένες πολιτικές αποτελούν κρίσιμο θεμέλιο για αποτελεσματικά συστήματα ασφάλειας».
Εκδήλωση Techcrunch
Σαν Φρανσίσκο, Καλιφόρνια
|
13-15 Οκτωβρίου 2026
Το OpenAI παραδέχεται ότι αυτές οι πολιτικές δεν αποτελούν λύση στις περίπλοκες προκλήσεις της ασφάλειας της τεχνητής νοημοσύνης. Ωστόσο, βασίζεται στις προηγούμενες προσπάθειές της, συμπεριλαμβανομένων των διασφαλίσεων σε επίπεδο προϊόντος, όπως ο γονικός έλεγχος και η πρόβλεψη ηλικίας. Πέρυσι, το OpenAI ενημέρωσε τις οδηγίες για τα μεγάλα γλωσσικά του μοντέλα — γνωστά ως Μοντέλο Spec — να αντιμετωπίσει πώς πρέπει να συμπεριφέρονται τα μοντέλα τεχνητής νοημοσύνης με χρήστες κάτω των 18 ετών.
Ωστόσο, το OpenAI δεν έχει το καθαρότερο ιστορικό. Η εταιρεία αντιμετωπίζει πολλές αγωγές που έχουν κατατεθεί από τις οικογένειες των ανθρώπων που πέθαναν από αυτοκτονία μετά από ακραία χρήση ChatGPT. Αυτές οι επικίνδυνες σχέσεις δημιουργούνται συχνά αφού ο χρήστης επισκιάζει τις διασφαλίσεις του chatbot και τα προστατευτικά κιγκλιδώματα κανενός μοντέλου δεν είναι πλήρως αδιαπέραστα. Ωστόσο, αυτές οι πολιτικές είναι τουλάχιστον ένα βήμα προς τα εμπρός, ειδικά επειδή μπορούν να βοηθήσουν τους ανεξάρτητους προγραμματιστές.
Via: techcrunch.com
