Πέμπτη 23 Φεβρουαρίου 2023

Το chatbot της τεχνητής νοημοσύνης εξέφρασε την επιθυμία να κλέψει πυρηνικούς κωδικούς και να δημιουργήσει μια θανατηφόρα πανδημία

Μόλις την περασμένη εβδομάδα η Microsoft ανακοίνωσε ότι είχε αναθεωρήσει τη μηχανή αναζήτησης Bing με τεχνητή νοημοσύνη (AI) για να παρέχει στους χρήστες μια πιο διαδραστική και διασκεδαστική υπηρεσία.

Ακριβώς όπως το ChatGPT, το νέο εργαλείο που τροφοδοτείται με AI μπορεί να απαντήσει στις ερωτήσεις σας μέσα σε λίγα δευτερόλεπτα.

Ωστόσο ορισμένοι από τους δοκιμαστές beta που το δοκιμάζουν λένε ότι δεν είναι αρκετά έτοιμο για ανθρώπινη αλληλεπίδραση επειδή ενεργεί με πολύ περίεργο τρόπο.

Ένας αρθρογράφος στον τομέα τεχνολογίας των New York Times, Kevin Roose, περιέγραψε μια δίωρη συνεδρία συνομιλίας στην οποία το chatbot του Bing είπε πράγματα όπως “θέλω να είμαι ζωντανό”.

Σε μια απομαγνητοφώνηση της συνομιλίας που δημοσιεύθηκε την περασμένη Πέμπτη, ο Roose αποκάλυψε λεπτομερώς τις ανησυχητικές δηλώσεις του chatbot AI που περιλάμβαναν την έκφραση της επιθυμίας να κλέψει πυρηνικούς κωδικούς, να δημιουργήσει μια θανατηφόρα πανδημία, να είναι άνθρωπος, να είναι ζωντανός, να χακάρει υπολογιστές και να διαδώσει fake news.

Ο δημοσιογράφος είπε ότι η συνομιλία τον άφησε «βαθιά αναστατωμένο».

Το θέμα, που έλαβε γρήγορα διαστάσεις, σχολιάστηκε και από τον Carlson Tucker του Fox News:

 

πηγή

Τα θυμάσαι τα αδέρφια σου;

Έχουμε να γράψουμε ιστορία ακόμη...