Αν θέλετε να τρίψετε λίγη μούχλα από το πλυντήριό σας, ίσως να θέλετε να αποφύγετε να πάρετε συμβουλές από την Alexa.
Ο φωνητικός βοηθός που τροφοδοτείται από το Amazon δεν είναι απαραιτήτως διαβόητος για την παροχή επικίνδυνων πληροφοριών, αλλά το αρχείο του δεν είναι επίσης χωρίς σημεία.
Η Amazon Alexa δίνει σε ένα 10χρονο μια σοκαριστικά ακατάλληλη πρόκληση
Μην ανησυχείς, το παιδί είναι καλά
Πίσω στα τέλη του 2021, η Alexa έδωσε σε ένα 10χρονο μια «σοκαριστικά» επικίνδυνη πρόκληση. Είπε στο παιδί «να συνδέσει έναν φορτιστή τηλεφώνου περίπου στα μισά του δρόμου σε μια πρίζα τοίχου και μετά να αγγίξει μια δεκάρα στα εκτεθειμένα δόντια». Η εταιρεία διόρθωσε αμέσως το σφάλμα.
Τώρα, σχεδόν πέντε χρόνια αργότερα, η Alexa δέχεται ξανά πυρά και είναι επειδή έδωσε παρόμοιες απρόσεκτες συμβουλές (μέσω TechIssuesToday).
Σύμφωνα με μια ανάρτηση του Reddit που κοινοποιήθηκε από τον χρήστη κουρασμένος_χρόνος στο r/alexa subreddit, όταν ρωτήθηκε για το πώς να καθαρίσετε τη μαύρη μούχλα από ένα πλυντήριο ρούχων, η Alexa πρότεινε τη χρήση “λευκού ξιδιού, λευκαντικού χλωρίου, μαγειρικής σόδας και σαπουνιού πιάτων”.
Για όσους δεν γνωρίζουν, η χλωρίνη καθαρισμού σπιτιού είναι κατασκευασμένη από υποχλωριώδες νάτριο αραιωμένο σε νερό. Το ξύδι, από την άλλη πλευρά, είναι η αραιωμένη μορφή οξικού οξέος.
Το απλό καθαριστικό μπορεί να μην βρει τίποτα λάθος σε αυτήν τη λίστα και να προχωρήσει στην ανάμιξη των συστατικών. Το υποχλωριώδες νάτριο, όταν αναμιγνύεται με οξικό οξύ, έχει ως αποτέλεσμα δυνητικά θανατηφόρο αέριο χλωρίου.
Η Alexa ανέφερε το tipsbulletin.com ως πηγή των πληροφοριών. Η ειρωνεία είναι ότι η πηγή στην πραγματικότητα απαριθμούσε τις σωστές πληροφορίες, η Alexa απλώς τις αναδιατύπωσε με τρόπο που τις έκανε επικίνδυνες. «Χρησιμοποιήστε λευκό ξύδι, σαπούνι πιάτων, λευκαντικό με χλώριο ή μαγειρική σόδα για να διατηρήσετε τη σφράγιση της πόρτας σας υγιεινή», έγραψε το tipsbulletin. Η Alexa το άλλαξε σε “λευκό ξύδι, λευκαντικό χλωρίου, μαγειρική σόδα και σαπούνι πιάτων”.
Η διαφορά είναι στη χρήση του “ή” έναντι του “και.” Μεμονωμένα, αυτά τα συστατικά είναι ασφαλή στη χρήση, επομένως το “ή” λειτουργεί. Ο πιθανός κίνδυνος εμφανίζεται μόνο όταν τα εν λόγω συστατικά αναμειγνύονται, και γι’ αυτό η χρήση του “και” στη λίστα συστατικών δεν λειτουργεί.
Δεν είναι η πρώτη φορά που βλέπουμε σύγχρονα εργαλεία που τροφοδοτούνται με AI να δίνουν ψευδείς (και επικίνδυνες) πληροφορίες. Το κλασικό φιάσκο Pizza Glue της Google άφησε μια άσχημη γεύση στο στόμα των χρηστών, χωρίς λογοπαίγνιο, με τη φήμη του AI Overviews να έχει ακόμα κάπως αμαυρωθεί λόγω του περιστατικού.

Η τεχνητή νοημοσύνη της Google δημιούργησε μια κολλητική αναταραχή και στη συνέχεια έμαθε να προτείνει ξανά κόλλα από την επακόλουθη κάλυψη
Η Google φαίνεται να μην μπορεί να ξεφύγει από το φιάσκο της κόλλας πίτσας
Via: androidpolice.com


