Ακριβώς όπως το ChatGPT, το νέο εργαλείο που τροφοδοτείται με AI μπορεί να απαντήσει στις ερωτήσεις σας μέσα σε λίγα δευτερόλεπτα.
Ωστόσο ορισμένοι από τους δοκιμαστές beta που το δοκιμάζουν λένε ότι δεν είναι αρκετά έτοιμο για ανθρώπινη αλληλεπίδραση επειδή ενεργεί με πολύ περίεργο τρόπο.
Ένας αρθρογράφος στον τομέα τεχνολογίας των New York Times, Kevin Roose, περιέγραψε μια δίωρη συνεδρία συνομιλίας στην οποία το chatbot του Bing είπε πράγματα όπως “θέλω να είμαι ζωντανό”.
Σε μια απομαγνητοφώνηση της συνομιλίας που δημοσιεύθηκε την περασμένη Πέμπτη, ο Roose αποκάλυψε λεπτομερώς τις ανησυχητικές δηλώσεις του chatbot AI που περιλάμβαναν την έκφραση της επιθυμίας να κλέψει πυρηνικούς κωδικούς, να δημιουργήσει μια θανατηφόρα πανδημία, να είναι άνθρωπος, να είναι ζωντανός, να χακάρει υπολογιστές και να διαδώσει fake news.
Ο δημοσιογράφος είπε ότι η συνομιλία τον άφησε «βαθιά αναστατωμένο».
Το θέμα, που έλαβε γρήγορα διαστάσεις, σχολιάστηκε και από τον Carlson Tucker του Fox News:
The other night, I had a disturbing, two-hour conversation with Bing's new AI chatbot.
— Kevin Roose (@kevinroose) February 16, 2023
The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP