Σε συνεντεύξεις και δημόσιες δηλώσεις, πολλοί στην κοινότητα της τεχνητής νοημοσύνης έχουν απορρίψει τους ισχυρισμούς του μηχανικού, ενώ ορισμένοι έχουν επισημάνει ότι η ιστορία του υπογραμμίζει πώς η τεχνολογία μπορεί να οδηγήσει τους ανθρώπους να της αποδώσουν ανθρώπινα χαρακτηριστικά. Αλλά μπορεί να υποστηριχθεί ότι η πεποίθηση ότι η τεχνητή νοημοσύνη της Google μπορεί να είναι συνειδητή υπογραμμίζει τους φόβους και τις προσδοκίες μας για το τι μπορεί να κάνει αυτή η τεχνολογία.
Το LaMDA, το οποίο σημαίνει Language Model for Dialog Applications, είναι ένα από τα πολλά συστήματα τεχνητής νοημοσύνης μεγάλης κλίμακας που έχουν εκπαιδευτεί σε μεγάλες επιφάνειες κειμένου από το Διαδίκτυο και μπορούν να ανταποκριθούν σε γραπτές προτροπές. Είναι επιφορτισμένοι, ουσιαστικά, με την εύρεση μοτίβων και την πρόβλεψη της λέξης ή των λέξεων που θα ακολουθήσουν. Τέτοια συστήματα έγιναν
όλο και πιο καλό απαντώντας σε ερωτήσεις και γράφοντας με τρόπους που μπορεί να φαίνονται πειστικά ανθρώπινοι — και η ίδια η Google
Το LaMDA παρουσιάστηκε τον περασμένο Μάιο σε μια ανάρτηση ιστολογίου Ως κάποιος μπορεί να «ασχοληθεί με έναν ελεύθερο τρόπο γύρω από έναν φαινομενικά άπειρο αριθμό θεμάτων». Αλλά τα αποτελέσματα μπορεί επίσης να είναι γελοία, περίεργα, ενοχλητικά και επιρρεπή σε απόσπαση της προσοχής.
Ο μηχανικός Blake Lemoine φέρεται να είπε στην Washington Post ότι μοιράστηκε τα στοιχεία με την Google ότι ο Lambda είχε τις αισθήσεις του, αλλά η εταιρεία δεν συμφώνησε. Σε μια δήλωση, η Google είπε τη Δευτέρα ότι η ομάδα της, η οποία περιλαμβάνει ηθικολόγους και τεχνολόγους, “εξέτασε τις ανησυχίες του Blake σύμφωνα με τις αρχές μας για την τεχνητή νοημοσύνη και τον ενημέρωσε ότι τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του”.
Στις 6 Ιουνίου, ο Lemoine δημοσίευσε στο Medium ότι η Google τον είχε θέσει σε διοικητική άδεια μετ’ αποδοχών “σε σχέση με μια έρευνα ηθικών ανησυχιών σχετικά με την τεχνητή νοημοσύνη που είχα εγείρει εντός της εταιρείας” και ότι ενδέχεται να απολυθεί “σύντομα”. (Ανέφερε την εμπειρία της Margaret Mitchell, η οποία ήταν η ηγέτιδα της ομάδας ηθικής τεχνητής νοημοσύνης στην Google μέχρι
Η Google το κυκλοφόρησε στις αρχές του 2021 Μετά την ειλικρινή της
Στα τέλη του 2020, ο Timnit Gebro, ο τότε συναρχηγός, θα αποχωρήσει. Η Gebru εκδιώχθηκε μετά από εσωτερικές διαμάχες, συμπεριλαμβανομένου ενός σχετικού με μια ερευνητική εργασία που ζητούσε από την ηγεσία της τεχνητής νοημοσύνης της εταιρείας να μην εξετάσει την προσφορά σε ένα συνέδριο ή να αφαιρέσει το όνομά της.)
Ένας εκπρόσωπος της Google επιβεβαίωσε ότι ο Lemoine παραμένει σε διοικητική άδεια. Σύμφωνα με την Washington Post, του δόθηκε άδεια για παραβίαση της πολιτικής εμπιστευτικότητας της εταιρείας.
Ο Lemoine δεν ήταν διαθέσιμος για σχόλιο τη Δευτέρα.
Η συνεχής εμφάνιση ισχυρών προγραμμάτων υπολογιστών που εκπαιδεύονται σε μεγάλα δεδομένα έχει εγείρει ανησυχίες σχετικά με τη δεοντολογία που διέπει την ανάπτυξη και τη χρήση αυτής της τεχνολογίας. Και μερικές φορές οι εξελίξεις βλέπονται από την οπτική γωνία του τι μπορεί να έρθει, παρά από το τι είναι σήμερα δυνατό.
Οι απαντήσεις από εκείνους στην κοινότητα της τεχνητής νοημοσύνης στο πείραμα του Lemoine αντηχούσαν στα μέσα κοινωνικής δικτύωσης το Σαββατοκύριακο και γενικά κατέληξαν στο ίδιο συμπέρασμα: η τεχνητή νοημοσύνη της Google δεν είναι καν κοντά στη συνείδηση. Abiba Birhani, αξιόπιστος ανώτερος συνεργάτης στην Τεχνητή Νοημοσύνη στη Mozilla,
τερέτισμα Την Κυριακή, «Μπήκαμε σε μια νέα εποχή «αυτού του συνειδητού νευρωνικού δικτύου» και αυτή τη φορά θα χρειαστεί πολλή ενέργεια για να το αντικρούσουμε».
Ο Gary Marcus, ιδρυτής και Διευθύνων Σύμβουλος της Uber-sold Geometric Intelligence και συγγραφέας βιβλίων, όπως το “Rebooting AI: Building Artificial Intelligence We Can Trust”, περιέγραψε την ιδέα του LaMDA ως συνειδητή
“Μαλακίες στα ξυλοπόδαρα” σε ένα tweet. έγραψε γρήγορα
Ανάρτηση Σημειώνοντας ότι όλα αυτά τα συστήματα AI εκτελούν αντιστοίχιση προτύπων αντλώντας από τεράστιες βάσεις δεδομένων γλώσσας.
Σε μια συνέντευξη τη Δευτέρα στο CNN Business, ο Marcus είπε ότι ο καλύτερος τρόπος για να σκεφτείς συστήματα όπως το LaMDA είναι ως μια «δοξασμένη έκδοση» ενός προγράμματος αυτόματης συμπλήρωσης που μπορεί να χρησιμοποιήσεις για να προβλέψεις την επόμενη λέξη σε ένα μήνυμα κειμένου. Αν γράψετε «Πεινάω πολύ, οπότε θέλω να πάω», μπορεί να προτείνει το «εστιατόριο» ως επόμενη λέξη. Αλλά αυτή είναι μια πρόβλεψη που γίνεται με τη χρήση στατιστικών.
«Κανείς δεν πρέπει να πιστεύει ότι η αυτόματη συμπλήρωση, ακόμη και με στεροειδή, είναι συνειδητή», είπε.
Σε μια συνέντευξη με τον Gebru, ιδρυτή και διευθύνοντα σύμβουλο της
Ινστιτούτο Ερευνών Κατανεμημένης Τεχνητής ΝοημοσύνηςΟ DAIR, ή DAIR, ο Lemoine είπε ότι είναι θύμα πολλών εταιρειών που ισχυρίζονται ότι η συνειδητή τεχνητή νοημοσύνη ή η τεχνητή γενική νοημοσύνη – μια ιδέα που αναφέρεται στην τεχνητή νοημοσύνη που μπορεί να εκτελέσει εργασίες παρόμοιες με τον άνθρωπο και να αλληλεπιδράσει μαζί μας με ουσιαστικούς τρόπους – δεν απέχει πολύ. .
Για παράδειγμα, ο Ilya Sutskiver, συνιδρυτής και επικεφαλής επιστήμονας στο OpenAI, σημειώνει,
τερέτισμα Τον Φεβρουάριο, «τα σημερινά μεγάλα νευρωνικά δίκτυα μπορεί να είναι λίγο συνειδητά». Και την περασμένη εβδομάδα, ο Αντιπρόεδρος της Google Research και συνάδελφος Blaise Aguera y Arcas
Γράφτηκε σε άρθρο για τον Economist ότι όταν άρχισε να χρησιμοποιεί το LaMDA πέρυσι, «Ένιωθα όλο και περισσότερο σαν να μιλούσα για κάτι έξυπνο». (Αυτό το άρθρο περιλαμβάνει τώρα ένα σημείωμα του συντάκτη που σημειώνει ότι ο Lemoine έκτοτε “είχε τεθεί σε άδεια αφού ισχυρίστηκε σε μια συνέντευξη στην Washington Post ότι το LaMDA, το chatbot της Google, είχε αποκτήσει τις αισθήσεις του.”)
“Αυτό που συμβαίνει είναι ότι υπάρχει ένας τέτοιος αγώνας για να χρησιμοποιήσουμε περισσότερα δεδομένα, περισσότερους υπολογιστές, για να πούμε ότι δημιουργήσατε αυτό το γενικό πράγμα που όλοι γνωρίζετε, απαντά σε όλες σας τις ερωτήσεις ή οτιδήποτε άλλο, και αυτό είναι το τύμπανο που παίζατε,” Gebru είπε. . «Λοιπόν πώς εκπλήσσεσαι όταν αυτό το άτομο το φτάνει στα άκρα;»
Στη δήλωσή της, η Google σημείωσε ότι το LaMDA έχει υποβληθεί σε 11 «διακεκριμένες αναθεωρήσεις των αρχών της τεχνητής νοημοσύνης», καθώς και σε «αυστηρές έρευνες και δοκιμές» σχετικά με την ποιότητα, την ασφάλεια και την ικανότητα εξεύρεσης δεδομένων που βασίζονται σε γεγονότα. «Φυσικά, κάποιοι στην ευρύτερη κοινότητα της τεχνητής νοημοσύνης μελετούν τις μακροπρόθεσμες δυνατότητες της συνειδητής ή γενικής τεχνητής νοημοσύνης, αλλά δεν έχει νόημα να το κάνουμε ενσωματώνοντας τρέχοντα μοντέλα συνομιλίας, τα οποία δεν είναι συνειδητά», είπε η εταιρεία.
«Εκατοντάδες ερευνητές και μηχανικοί είχαν συνομιλίες με το λάμδα και δεν γνωρίζουμε ότι κάποιος άλλος να παρέχει τόσο εκτενείς ισχυρισμούς ή να ενσαρκώνει το λάμδα όπως έκανε ο Μπλέικ», είπε η Google.