Παρασκευή 9 Ιουνίου 2023

Οι μηχανές AI δεν έχουν παραισθήσεις

Οι μηχανές τεχνητής νοημοσύνης δεν έχουν “παραισθήσεις”. Αλλά οι κατασκευαστές τους έχουν. Ο στόχος τους δεν ήταν ποτέ να λύσουν την “κλιματική αλλαγή” ή να κάνουν τις κυβερνήσεις πιο υπεύθυνες ή την καθημερινότητά πιο εύκολη.

Οι διευθύνοντες σύμβουλοι της τεχνολογίας θέλουν να πιστέψουμε ότι η γενεσιουργός τεχνητή νοημοσύνη θα ωφελήσει την ανθρωπότητα. Κοροϊδεύουν τους εαυτούς τους κι εμάς. Μέσα στις πολλές συζητήσεις που στροβιλίζονται γύρω από την ταχεία εξάπλωση της λεγόμενης “τεχνητής νοημοσύνης”, υπάρχει μια σχετικά σκοτεινή αψιμαχία που επικεντρώνεται στην επιλογή της λέξης “παραισθήσεις”.

Αυτός είναι ο όρος στον οποίο έχουν καταλήξει οι αρχιτέκτονες και οι υποστηρικτές της δημιουργικής τεχνητής νοημοσύνης για να χαρακτηρίσουν τις απαντήσεις που σερβίρονται από τα chatbots και οι οποίες είναι εντελώς κατασκευασμένες ή εντελώς λανθασμένες. Όπως, για παράδειγμα, όταν ζητάτε από ένα ρομπότ έναν ορισμό για κάτι που δεν υπάρχει κι αυτό, αρκετά πειστικά, σας δίνει έναν ορισμό, μαζί με υποσημειώσεις.

“Κανείς στον τομέα δεν έχει λύσει ακόμη, τα προβλήματα των ψευδαισθήσεων”, δήλωσε ο Sundar Pichai, διευθύνων σύμβουλος της Google και της Alphabet, σε συνέντευξή του.

Αυτό είναι αλήθεια -αλλά γιατί αποκαλούν τα λάθη “ψευδαισθήσεις”; Γιατί όχι αλγοριθμικά σκουπίδια; Ή δυσλειτουργίες; Λοιπόν, οι παραισθήσεις αναφέρονται στην μυστηριώδη ικανότητα του ανθρώπινου εγκεφάλου να αντιλαμβάνεται φαινόμενα που δεν υπάρχουν, τουλάχιστον όχι με συμβατικούς, υλιστικούς όρους.

Οικειοποιούμενοι μια λέξη που χρησιμοποιείται συνήθως στην ψυχολογία, τα ψυχεδελικά και τις διάφορες μορφές μυστικισμού, οι υποστηρικτές της τεχνητής νοημοσύνης, ενώ αναγνωρίζουν την αστοχία των μηχανών τους, τροφοδοτούν ταυτόχρονα την πιο αγαπημένη μυθολογία του τομέα: ότι με την δημιουργία αυτών των μεγάλων γλωσσικών μοντέλων και την εκπαίδευσή τους σε όλα όσα έχουμε γράψει, πει και αναπαραστήσει οπτικά, εμείς οι άνθρωποι, βρίσκονται στην διαδικασία γέννησης μιας έμψυχης νοημοσύνης που βρίσκεται στο κατώφλι ενός εξελικτικού άλματος για το είδος μας. Πώς αλλιώς θα μπορούσαν τα ρομπότ όπως το Bing και το Bard να σκοντάφτουν εκεί έξω;

Ωστόσο, στον κόσμο της τεχνητής νοημοσύνης όντως συμβαίνουν παραληρητικές ψευδαισθήσεις – μόνο που δεν είναι τα ρομπότ που τις έχουν, αλλά οι διευθύνοντες σύμβουλοι τεχνολογίας που τις εξαπέλυσαν, μαζί με μια φάλαγγα από οπαδούς τους, οι οποίοι βρίσκονται στην δίνη άγριων ψευδαισθήσεων, τόσο ατομικά όσο και συλλογικά. Εδώ ορίζω τις παραισθήσεις όχι με την μυστικιστική ή ψυχεδελική έννοια, καταστάσεις αλλαγής του νου που μπορούν πράγματι να βοηθήσουν στην πρόσβαση σε βαθιές, προηγουμένως μη αντιληπτές αλήθειες. Όχι. Αυτοί οι τύποι απλά σκοντάφτουν: βλέπουν, ή τουλάχιστον ισχυρίζονται ότι βλέπουν, στοιχεία που δεν υπάρχουν καθόλου, και μαγεύουν ολόκληρους κόσμους που θα χρησιμοποιήσουν τα προϊόντα τους για την δήθεν παγκόσμια ανύψωση κι εκπαίδευσή τους.

Η γεννητική τεχνητή νοημοσύνη θα τερματίσει την φτώχεια, μας λένε. Θα θεραπεύσει όλες τις ασθένειες. Θα λύσει την κλιματική αλλαγή. Θα κάνει τις δουλειές μας πιο ουσιαστικές και συναρπαστικές. Θα απελευθερώσει ζωές αναψυχής και περισυλλογής, βοηθώντας μας να ανακτήσουμε την ανθρωπιά που χάσαμε από την ύστερη καπιταλιστική μηχανοποίηση. Θα δώσει τέλος στην μοναξιά. Θα κάνει τις κυβερνήσεις μας ορθολογικές και ευέλικτες. Αυτά, φοβάμαι, είναι οι πραγματικές ψευδαισθήσεις της AI και τις ακούμε όλοι σε επανάληψη από τότε που ξεκίνησε το Chat GPT στα τέλη του περασμένου έτους.

Υπάρχει ένας κόσμος στον οποίο η δημιουργική τεχνητή νοημοσύνη, ως ισχυρό εργαλείο πρόβλεψης και εκτέλεσης κουραστικών εργασιών, θα μπορούσε πράγματι να χρησιμοποιηθεί προς όφελος της ανθρωπότητας, άλλων ειδών και του κοινού μας σπιτιού. Αλλά για να συμβεί αυτό, οι τεχνολογίες αυτές θα πρέπει να αναπτυχθούν μέσα σε μια πολύ διαφορετική οικονομική και κοινωνική τάξη από την δική μας, μια τάξη που θα έχει ως σκοπό την ικανοποίηση των ανθρώπινων αναγκών και την προστασία των πλανητικών συστημάτων που υποστηρίζουν όλη την ζωή.

Και όπως καταλαβαίνουν καλά όσοι από εμάς δεν είναι σήμερα τριπλέτες, το σημερινό μας σύστημα δεν έχει καμία σχέση με αυτό. Αντίθετα, είναι φτιαγμένο για να μεγιστοποιεί την απόσπαση πλούτου και κέρδους -τόσο από τους ανθρώπους όσο και από τον φυσικό κόσμο- μια πραγματικότητα που μας έχει φέρει σε αυτό που θα μπορούσαμε να σκεφτούμε ως το τέχνο-νεκρό στάδιο του καπιταλισμού. Σε αυτή την πραγματικότητα της υπερσυγκεντρωμένης εξουσίας και του πλούτου, η τεχνητή νοημοσύνη -πολύ μακριά από το να ανταποκριθεί σε όλες αυτές τις ουτοπικές ψευδαισθήσεις- είναι πολύ πιο πιθανό να γίνει ένα τρομακτικό εργαλείο περαιτέρω στέρησης και λεηλασίας.

Θα ερευνήσω γιατί συμβαίνει αυτό. Αλλά πρώτα, είναι χρήσιμο να σκεφτούμε τον σκοπό που εξυπηρετούν οι ουτοπικές ψευδαισθήσεις για την τεχνητή νοημοσύνη. Τι έργο επιτελούν αυτές οι καλοπροαίρετες ιστορίες στην κουλτούρα, καθώς συναντάμε αυτά τα παράξενα νέα εργαλεία; Να μια υπόθεση: είναι οι ισχυρές και δελεαστικές ιστορίες κάλυψης γι’ αυτό που μπορεί να αποδειχθεί η μεγαλύτερη κλοπή στην ανθρώπινη ιστορία. Διότι αυτό που παρακολουθούμε είναι οι πλουσιότερες εταιρείες στην ιστορία (Microsoft, Apple, Google, Meta, Amazon …) ν’ αρπάζουν μονομερώς το σύνολο της ανθρώπινης γνώσης που υπάρχει σε ψηφιακή μορφή και να το περιφράσσουν μέσα στα ιδιόκτητα προϊόντα τους, πολλά από τα οποία στοχεύουν ευθέως τους ανθρώπους των οποίων η εργασία εκπαίδευσε τις μηχανές, χωρίς να δώσουν την άδεια ή την συγκατάθεσή τους.

Αυτό δεν θα έπρεπε να είναι νόμιμο. Στην περίπτωση του υλικού που προστατεύεται από πνευματικά δικαιώματα και που τώρα γνωρίζουμε ότι εκπαιδεύτηκαν τα μοντέλα (συμπεριλαμβανομένης αυτής της εφημερίδας), έχουν κατατεθεί διάφορες αγωγές που θα υποστηρίξουν ότι αυτό ήταν σαφώς παράνομο. Γιατί, για παράδειγμα, θα πρέπει να επιτρέπεται σε μια κερδοσκοπική εταιρεία να τροφοδοτεί τους πίνακες, τα σχέδια και τις φωτογραφίες ζωντανών καλλιτεχνών σε ένα πρόγραμμα όπως το Stable Diffusion ή το Dall-E 2, ώστε να μπορεί στην συνέχεια να χρησιμοποιηθεί αυτό για την δημιουργία εκδόσεων/σωσία των έργων αυτών των ίδιων των καλλιτεχνών, με τα οφέλη να εισρέουν σε όλους εκτός από τους ίδιους τους καλλιτέχνες;

Η ζωγράφος και εικονογράφος Molly Crabapple συμβάλλει στην ηγεσία ενός κινήματος καλλιτεχνών που αμφισβητεί αυτή την κλοπή:

“Οι γεννήτριες τέχνης τεχνητής νοημοσύνης εκπαιδεύονται σε τεράστια σύνολα δεδομένων, τα οποία περιέχουν εκατομμύρια και εκατομμύρια εικόνες που προστατεύονται από πνευματικά δικαιώματα και συλλέγονται χωρίς την γνώση του δημιουργού τους, πόσο μάλλον χωρίς αποζημίωση ή συγκατάθεση. Πρόκειται ουσιαστικά για την μεγαλύτερη ληστεία τέχνης στην ιστορία. Διαπράττεται από εταιρικές οντότητες που φαίνονται αξιοσέβαστες και υποστηρίζονται από επιχειρηματικά κεφάλαια της Silicon Valley. Πρόκειται για ληστεία στο φως της ημέρας”, αναφέρει μια νέα ανοιχτή επιστολή που συνέταξε.

Το κόλπο, βέβαια, είναι ότι η Silicon Valley αποκαλεί συνήθως την κλοπή “αναστάτωση” – και πολύ συχνά την γλιτώνει. Γνωρίζουμε αυτή την κίνηση: ορμάτε μπροστά σε άνομο έδαφος- ισχυρίζεστε ότι οι παλιοί κανόνες δεν ισχύουν για την νέα σας τεχνολογία- φωνάζετε ότι η ρύθμιση θα βοηθήσει μόνο την Κίνα -και όλα αυτά ενώ έχετε τα γεγονότα σας σταθερά στο έδαφος. Μέχρι να ξεπεράσουμε όλοι την καινοτομία αυτών των νέων παιχνιδιών και ν’ αρχίσουμε να κάνουμε απολογισμό των κοινωνικών, πολιτικών και οικονομικών καταστροφών, η τεχνολογία είναι ήδη τόσο διαδεδομένη που τα δικαστήρια και οι υπεύθυνοι χάραξης πολιτικής σηκώνουν τα χέρια ψηλά.

Το είδαμε με την σάρωση βιβλίων και έργων τέχνης της Google. Με τον αποικισμό του διαστήματος από τον Μασκ. Με την επίθεση της Uber στον κλάδο των ταξί. Με την επίθεση της Airbnb στην αγορά ενοικίασης. Με την ασυδοσία του Facebook με τα δεδομένα μας. Μην ζητάτε άδεια, αρέσκονται να λένε οι disruptors, ζητήστε συγχώρεση. (Και λιπαίνουν τα αιτήματα με γενναιόδωρες προεκλογικές συνεισφορές).

Στο βιβλίο “Η εποχή του καπιταλισμού της επιτήρησης”, η Shoshana Zuboff περιγράφει με λεπτομέρεια πώς οι χάρτες Street View της Google ξεπέρασαν τους κανόνες της ιδιωτικής ζωής, στέλνοντας τα αυτοκίνητά της με τις κάμερες να φωτογραφίζουν τους δημόσιους δρόμους και τους εξωτερικούς χώρους των σπιτιών μας. Μέχρι να ξεκινήσουν οι αγωγές για την υπεράσπιση των δικαιωμάτων της ιδιωτικής ζωής, το Street View ήταν ήδη τόσο πανταχού παρόν στις συσκευές μας (και τόσο ωραίο, και τόσο βολικό …) που ελάχιστα δικαστήρια εκτός Γερμανίας ήταν πρόθυμα να παρέμβουν.

Τώρα το ίδιο πράγμα που συνέβη στο εξωτερικό των σπιτιών μας συμβαίνει και στις λέξεις, τις εικόνες, τα τραγούδια μας, ολόκληρη την ψηφιακή μας ζωή. Όλα κατασχέθηκαν επί του παρόντος και χρησιμοποιούνται για να εκπαιδεύσουν τις μηχανές να προσομοιώνουν την σκέψη και την δημιουργικότητα. Αυτές οι εταιρείες πρέπει να γνωρίζουν ότι εμπλέκονται σε κλοπή, ή τουλάχιστον ότι μπορεί να διατυπωθεί μια ισχυρή υπόθεση ότι το κάνουν. Απλώς ελπίζουν ότι το παλιό εγχειρίδιο λειτουργεί για άλλη μια φορά – ότι η κλίμακα της ληστείας είναι ήδη τόσο μεγάλη και εξελίσσεται με τέτοια ταχύτητα ώστε τα δικαστήρια και οι υπεύθυνοι χάραξης πολιτικής θα σηκώσουν για άλλη μια φορά τα χέρια ψηλά μπροστά στο υποτιθέμενο αναπόφευκτο όλων αυτών.

Γι’ αυτό είναι επίσης τόσο σημαντικές οι παραισθήσεις τους για όλα τα θαυμάσια πράγματα που θα κάνει η τεχνητή νοημοσύνη για την ανθρωπότητα. Επειδή αυτοί οι υψηλοί ισχυρισμοί μεταμφιέζουν αυτή την μαζική κλοπή ως δώρο – την ίδια στιγμή που βοηθούν στον εξορθολογισμό των αναμφισβήτητων κινδύνων της ΤΝ.

Μέχρι τώρα, οι περισσότεροι από εμάς έχουμε ακούσει για την έρευνα που ζήτησε από ερευνητές και προγραμματιστές ΤΝ να εκτιμήσουν την πιθανότητα “τα προηγμένα συστήματα ΤΝ να προκαλέσουν την εξαφάνιση του ανθρώπου ή παρόμοια μόνιμη και σοβαρή αποδυνάμωση του ανθρώπινου είδους”. Ανατριχιαστικά, η μέση απάντηση ήταν ότι υπάρχει πιθανότητα 10%.

Πώς μπορεί κανείς να εκλογικεύσει το να πηγαίνει στην δουλειά του και να προωθεί εργαλεία που ενέχουν τέτοιους υπαρξιακούς κινδύνους; Συχνά, ο λόγος που δίνεται είναι ότι τα συστήματα αυτά φέρουν επίσης τεράστια δυνητικά πλεονεκτήματα – μόνο που αυτά τα πλεονεκτήματα είναι, ως επί το πλείστον, παραισθητικά. Ας εξετάσουμε μερικά από τα πιο άγρια πλεονεκτήματα.

Παραισθήσεις #1: Η τεχνητή νοημοσύνη θα λύσει την κλιματική κρίση.

Σχεδόν πάντα στην κορυφή των καταλόγων των πλεονεκτημάτων της τεχνητής νοημοσύνης βρίσκεται ο ισχυρισμός ότι αυτά τα συστήματα θα λύσουν με κάποιο τρόπο την κλιματική κρίση. Το έχουμε ακούσει αυτό από το Παγκόσμιο Οικονομικό Φόρουμ μέχρι το Συμβούλιο Εξωτερικών Σχέσεων και την Boston Consulting Group, η οποία εξηγεί ότι:

“Η ΤΝ μπορεί να χρησιμοποιηθεί για να υποστηρίξει όλους τους ενδιαφερόμενους φορείς στην υιοθέτηση μιας πιο τεκμηριωμένης και βασισμένης στα δεδομένα προσέγγισης για την καταπολέμηση των εκπομπών διοξειδίου του άνθρακα και την οικοδόμηση μιας πιο πράσινης κοινωνίας. Μπορεί επίσης να χρησιμοποιηθεί για την αναπροσαρμογή της βαρύτητας των παγκόσμιων κλιματικών προσπαθειών προς τις περιοχές που διατρέχουν τον μεγαλύτερο κίνδυνο”.

Ο πρώην διευθύνων σύμβουλος της Google Eric Schmidt δήλωσε στο Atlantic ότι:

“Οι κίνδυνοι της τεχνητής νοημοσύνης αξίζει να αναληφθούν, διότι αν σκεφτείτε τα μεγαλύτερα προβλήματα στον κόσμο, είναι όλα πολύ δύσκολα – κλιματική αλλαγή, ανθρώπινες οργανώσεις κ.λπ. Και έτσι, θέλω πάντα οι άνθρωποι να είναι πιο έξυπνοι”.

Σύμφωνα με αυτή την λογική, η αποτυχία “επίλυσης” μεγάλων προβλημάτων όπως η κλιματική αλλαγή οφείλεται σε έλλειμμα εξυπνάδας. Δεν έχει σημασία ότι οι έξυπνοι άνθρωποι, βαριά εφοδιασμένοι με διδακτορικά και βραβεία Νόμπελ, λένε στις κυβερνήσεις μας εδώ και δεκαετίες τι πρέπει να γίνει για να βγούμε από αυτό το χάλι: να μειώσουμε τις εκπομπές μας, να αφήσουμε τον άνθρακα στο έδαφος, να αντιμετωπίσουμε την υπερκατανάλωση των πλουσίων και την υποκατανάλωση των φτωχών, επειδή καμία πηγή ενέργειας δεν είναι απαλλαγμένη από οικολογικό κόστος.

Ο λόγος για τον οποίο αγνοήθηκε αυτή η πολύ έξυπνη συμβουλή δεν οφείλεται σε κάποιο πρόβλημα κατανόησης ή στο ότι χρειαζόμαστε μηχανές να κάνουν την σκέψη μας για εμάς. Είναι επειδή το να κάνουμε αυτό που απαιτεί η κλιματική κρίση από εμάς θα δεσμεύσει τρισεκατομμύρια δολάρια σε περιουσιακά στοιχεία ορυκτών καυσίμων, ενώ θα αμφισβητήσει το μοντέλο ανάπτυξης που βασίζεται στην κατανάλωση και βρίσκεται στην καρδιά των διασυνδεδεμένων οικονομιών μας.

Η κλιματική κρίση δεν είναι, στην πραγματικότητα, ένα μυστήριο ή ένας γρίφος που δεν έχουμε ακόμη λύσει λόγω ανεπαρκώς αξιόπιστων συνόλων δεδομένων. Ξέρουμε τι θα χρειαζόταν, αλλά δεν είναι μια γρήγορη λύση -είναι μια αλλαγή παραδείγματος. Το να περιμένουμε από τις μηχανές να μας δώσουν μια πιο εύπεπτη ή κερδοφόρα απάντηση δεν αποτελεί θεραπεία για την κρίση, αλλά ένα ακόμη σύμπτωμά της.

Αν απομακρύνετε τις ψευδαισθήσεις, φαίνεται πολύ πιο πιθανό ότι η τεχνητή νοημοσύνη θα κυκλοφορήσει στην αγορά με τρόπους που θα εντείνουν ενεργά την κλιματική κρίση. Πρώτον, οι γιγάντιοι διακομιστές που καθιστούν δυνατές τις άμεσες εκθέσεις και τα έργα τέχνης από chatbots είναι μια τεράστια και αυξανόμενη πηγή εκπομπών διοξειδίου του άνθρακα. Δεύτερον, καθώς εταιρείες όπως η Coca-Cola αρχίζουν να κάνουν τεράστιες επενδύσεις για να χρησιμοποιήσουν την γεννητική τεχνητή νοημοσύνη για να πουλήσουν περισσότερα προϊόντα, γίνεται ολοένα και πιο σαφές ότι αυτή η νέα τεχνολογία θα χρησιμοποιηθεί με τους ίδιους τρόπους όπως και η τελευταία γενιά ψηφιακών εργαλείων: ότι αυτό που ξεκινάει με μεγαλόστομες υποσχέσεις για την εξάπλωση της ελευθερίας και της δημοκρατίας καταλήγει σε μικροσκοπική στόχευση διαφημίσεων σε εμάς, ώστε να αγοράζουμε περισσότερα άχρηστα πράγματα που εκτοξεύουν άνθρακα.

Και υπάρχει και ένας τρίτος παράγοντας, ο οποίος είναι λίγο πιο δύσκολο να προσδιοριστεί. Όσο περισσότερο τα κανάλια των μέσων μαζικής ενημέρωσης κατακλύζονται από βαθιές απομιμήσεις και κλώνους διαφόρων ειδών, τόσο περισσότερο έχουμε την αίσθηση ότι βουλιάζουμε στην πληροφοριακή κινούμενη άμμο. Ο Geoffrey Hinton, που συχνά αναφέρεται ως “ο νονός της τεχνητής νοημοσύνης” επειδή το νευρωνικό δίκτυο που ανέπτυξε πριν από μια δεκαετία και πλέον αποτελεί τα δομικά στοιχεία των σημερινών μεγάλων γλωσσικών μοντέλων, το καταλαβαίνει καλά αυτό. Μόλις παραιτήθηκε από έναν ανώτερο ρόλο στην Google, ώστε να μπορεί να μιλάει ελεύθερα για τους κινδύνους της τεχνολογίας που βοήθησε να δημιουργηθεί, συμπεριλαμβανομένου, όπως δήλωσε στους New York Times, του κινδύνου ότι “οι άνθρωποι δεν θα είναι πλέον σε θέση να γνωρίζουν τι είναι αλήθεια”.

Αυτό έχει μεγάλη σημασία για τον ισχυρισμό ότι η τεχνητή νοημοσύνη θα βοηθήσει στην καταπολέμηση της κλιματικής κρίσης. Διότι όταν είμαστε δύσπιστοι απέναντι σε ό,τι διαβάζουμε και βλέπουμε στο όλο και πιο αλλόκοτο περιβάλλον των μέσων ενημέρωσης, γινόμαστε ακόμη λιγότερο εξοπλισμένοι για την επίλυση πιεστικών συλλογικών προβλημάτων. Η κρίση της εμπιστοσύνης προϋπήρχε του ChatGPT, φυσικά, αλλά δεν υπάρχει αμφιβολία ότι ο πολλαπλασιασμός των βαθιών πλαστογραφιών θα συνοδευτεί από μια εκθετική αύξηση των ήδη ακμάζουσων συνωμοσιολογικών πολιτισμών. Τι διαφορά θα έχει λοιπόν αν η τεχνητή νοημοσύνη παρουσιάσει τεχνολογικές και επιστημονικές ανακαλύψεις; Αν ο ιστός της κοινής πραγματικότητας ξετυλίγεται στα χέρια μας, θα βρεθούμε ανίκανοι να ανταποκριθούμε με οποιαδήποτε συνοχή.

Ψευδαίσθηση #2: Η ΤΝ θα προσφέρει σοφή διακυβέρνηση.

Αυτή η ψευδαίσθηση επικαλείται ένα κοντινό μέλλον στο οποίο οι πολιτικοί και οι γραφειοκράτες, βασιζόμενοι στην τεράστια συσσωρευμένη νοημοσύνη των συστημάτων τεχνητής νοημοσύνης, είναι σε θέση “να βλέπουν τα μοτίβα των αναγκών και να αναπτύσσουν προγράμματα βασισμένα σε αποδείξεις” που έχουν μεγαλύτερα οφέλη για τους ψηφοφόρους τους. Αυτός ο ισχυρισμός προέρχεται από ένα έγγραφο που δημοσιεύθηκε από το ίδρυμα Boston Consulting Group, αλλά βρίσκει ανταπόκριση μέσα σε πολλές δεξαμενές σκέψης και εταιρείες συμβούλων διαχείρισης.

Και είναι χαρακτηριστικό ότι αυτές οι συγκεκριμένες εταιρείες -οι εταιρείες που προσλαμβάνονται από κυβερνήσεις και άλλες εταιρείες για να εντοπίσουν την εξοικονόμηση κόστους, συχνά με την απόλυση μεγάλου αριθμού εργαζομένων- έχουν πηδήξει πιο γρήγορα στο άρμα της τεχνητής νοημοσύνης. Η PwC (πρώην PricewaterhouseCoopers) μόλις ανακοίνωσε επένδυση ύψους 1 δισ. δολαρίων, και η Bain & Company καθώς και η Deloitte φέρονται να είναι ενθουσιασμένες με την χρήση αυτών των εργαλείων για να κάνουν τους πελάτες τους πιο “αποδοτικούς”.

Όπως και με τους ισχυρισμούς για το κλίμα, είναι απαραίτητο να αναρωτηθούμε: μήπως ο λόγος που οι πολιτικοί επιβάλλουν σκληρές και αναποτελεσματικές πολιτικές είναι ότι πάσχουν από έλλειψη στοιχείων; Μια ανικανότητα να “δουν μοτίβα”, όπως υποδηλώνει το έγγραφο της BCG; Μήπως δεν κατανοούν το ανθρώπινο κόστος της λιμοκτονίας της δημόσιας υγειονομικής περίθαλψης εν μέσω πανδημιών, ή της αποτυχίας να επενδύσουν σε μη αγοραίες κατοικίες όταν οι σκηνές γεμίζουν τα αστικά μας πάρκα, ή της έγκρισης νέων υποδομών ορυκτών καυσίμων ενώ οι θερμοκρασίες ανεβαίνουν στα ύψη; Χρειάζονται τεχνητή νοημοσύνη για να γίνουν “εξυπνότεροι”, για να χρησιμοποιήσουμε τον όρο του Schmidt – ή είναι ακριβώς αρκετά έξυπνοι ώστε να γνωρίζουν ποιος θα χρηματοδοτήσει την επόμενη εκστρατεία τους ή, αν ξεστρατίσουν, θα χρηματοδοτήσει τους αντιπάλους τους;

Θα ήταν πολύ ωραίο αν η Τεχνητή Νοημοσύνη μπορούσε πραγματικά να αποκόψει την σύνδεση μεταξύ των εταιρικών χρημάτων και της απερίσκεπτης χάραξης πολιτικής – αλλά αυτή η σύνδεση έχει να κάνει με το γιατί εταιρείες όπως η Google και η Microsoft είχαν την δυνατότητα να διαθέσουν τα chatbots τους στο κοινό παρά την χιονοστιβάδα των προειδοποιήσεων και των γνωστών κινδύνων.

Ο Schmidt και άλλοι έχουν ξεκινήσει μια πολυετή εκστρατεία πίεσης λέγοντας και στα δύο κόμματα στην Ουάσινγκτον ότι αν δεν είναι ελεύθεροι να προχωρήσουν με την γεννητική τεχνητή νοημοσύνη, χωρίς να επιβαρύνονται από σοβαρές ρυθμίσεις, τότε οι δυτικές δυνάμεις θα μείνουν στην σκόνη από την Κίνα.

Πέρυσι, οι κορυφαίες εταιρείες τεχνολογίας δαπάνησαν το ποσό ρεκόρ των 70 εκατομμυρίων δολαρίων για να ασκήσουν λόμπι στην Ουάσιγκτον -περισσότερα από τον τομέα πετρελαίου και φυσικού αερίου- και το ποσό αυτό, σημειώνει το Bloomberg News, είναι επιπλέον των εκατομμυρίων που δαπανήθηκαν “για το ευρύ φάσμα των εμπορικών ομάδων, των μη κερδοσκοπικών οργανισμών και των δεξαμενών σκέψης”.

Και όμως, παρά την βαθιά γνώση τους για το πώς ακριβώς το χρήμα διαμορφώνει την πολιτική στις εθνικές μας πρωτεύουσες, όταν ακούτε τον Sam Altman, τον διευθύνοντα σύμβουλο της OpenAI -κατασκευαστή του ChatGPT- να μιλάει με τα καλύτερα σενάρια για τα προϊόντα του, όλα αυτά φαίνεται να ξεχνιούνται. Αντ’ αυτού, φαίνεται να φαντάζεται έναν κόσμο εντελώς διαφορετικό από τον δικό μας, έναν κόσμο στον οποίο οι πολιτικοί και η βιομηχανία λαμβάνουν αποφάσεις με βάση τα καλύτερα δεδομένα και δεν θα εξέθεταν ποτέ σε κίνδυνο αμέτρητες ζωές για το κέρδος και το γεωπολιτικό πλεονέκτημα. Το οποίο μας φέρνει σε μια άλλη παραίσθηση.

Παραισθήσεις #3: Μπορούμε να εμπιστευτούμε τους τεχνολογικούς γίγαντες ότι δεν θα καταστρέψουν τον κόσμο.

Ερωτηθείς αν ανησυχεί για την ξέφρενη βιασύνη που έχει ήδη εξαπολύσει η ChatGPT, ο Altman είπε ότι ανησυχεί, αλλά πρόσθεσε με αισιοδοξία: “Ελπίζω ότι όλα θα πάνε καλά”. Σχετικά με τους συναδέλφους του διευθύνοντες συμβούλους τεχνολογίας -αυτούς που ανταγωνίζονται για να βγάλουν γρήγορα τα ανταγωνιστικά τους chatbots- είπε: “Νομίζω ότι οι καλύτεροι άγγελοι θα νικήσουν”.

Καλύτεροι άγγελοι; Στην Google; Είμαι αρκετά σίγουρη ότι η εταιρεία απέλυσε τους περισσότερους από αυτούς επειδή δημοσίευαν επικριτικά έγγραφα για την τεχνητή νοημοσύνη ή εγκαλούσαν την εταιρεία για ρατσισμό και σεξουαλική παρενόχληση στον εργασιακό χώρο. Περισσότεροι “καλύτεροι άγγελοι” παραιτήθηκαν με συναγερμό, με πιο πρόσφατο παράδειγμα τον Χίντον. Αυτό συμβαίνει επειδή, σε αντίθεση με τις παραισθήσεις των ανθρώπων που επωφελούνται περισσότερο από την Τεχνητή Νοημοσύνη, η Google δεν λαμβάνει αποφάσεις με βάση το τι είναι καλύτερο για τον κόσμο -λαμβάνει αποφάσεις με βάση το τι είναι καλύτερο για τους μετόχους της Alphabet, οι οποίοι δεν θέλουν να χάσουν την τελευταία φούσκα, όχι όταν η Microsoft, η Meta και η Apple είναι ήδη όλοι μέσα.

Ψευδαίσθηση #4: Η τεχνητή νοημοσύνη θα μας απελευθερώσει από την αγγαρεία.

Αν οι καλοπροαίρετες παραισθήσεις της Silicon Valley φαίνονται αληθοφανείς σε πολλούς, υπάρχει ένας απλός λόγος γι’ αυτό. Η γεννητική τεχνητή νοημοσύνη βρίσκεται επί του παρόντος σε αυτό που θα μπορούσαμε να θεωρήσουμε ως το στάδιο του ψευτο-σοσιαλισμού. Αυτό αποτελεί μέρος ενός πλέον γνωστού εγχειριδίου της Silicon Valley.

Πρώτον, δημιουργήστε ένα ελκυστικό προϊόν (μια μηχανή αναζήτησης, ένα εργαλείο χαρτογράφησης, ένα κοινωνικό δίκτυο, μια πλατφόρμα βίντεο, ένα ride share …)- δώστε το δωρεάν ή σχεδόν δωρεάν για μερικά χρόνια, χωρίς διακριτό βιώσιμο επιχειρηματικό μοντέλο (“Παίξτε με τα ρομπότ”, μας λένε, “δείτε τι διασκεδαστικά πράγματα μπορείτε να δημιουργήσετε!”)- να κάνετε πολλούς υψηλούς ισχυρισμούς για το πώς το κάνετε μόνο και μόνο επειδή θέλετε να δημιουργήσετε μια “πλατεία της πόλης” ή ένα “κοινόχρηστο πληροφοριακό σύστημα” ή να “συνδέσετε τους ανθρώπους”, ενώ παράλληλα διαδίδεται την ελευθερία και την δημοκρατία (και δεν είστε “κακοί”).

Στην συνέχεια, παρακολουθήστε τους ανθρώπους να εθίζονται χρησιμοποιώντας αυτά τα δωρεάν εργαλεία και τους ανταγωνιστές σας να κηρύσσουν πτώχευση. Μόλις το πεδίο είναι ελεύθερο, εισαγάγετε τις στοχευμένες διαφημίσεις, την συνεχή επιτήρηση, τα αστυνομικά και στρατιωτικά συμβόλαια, τις πωλήσεις δεδομένων στο μαύρο κουτί και τις κλιμακούμενες συνδρομές.

Πολλές ζωές και τομείς έχουν αποδεκατιστεί από προηγούμενες εκδοχές αυτού του εγχειριδίου, από τους οδηγούς ταξί, μέχρι τις αγορές ενοικίασης και τις τοπικές εφημερίδες. Με την επανάσταση της Τεχνητής Νοημοσύνης, αυτού του είδους οι απώλειες θα μπορούσαν να μοιάζουν με στρογγυλοποιητικά λάθη, με δασκάλους, προγραμματιστές, εικαστικούς καλλιτέχνες, δημοσιογράφους, μεταφραστές, μουσικούς, εργαζόμενους στην φροντίδα και τόσους άλλους να αντιμετωπίζουν την προοπτική να αντικατασταθούν τα εισοδήματά τους από κώδικα με δυσλειτουργίες.

Μην ανησυχείτε, οι λάτρεις της τεχνητής νοημοσύνης έχουν παραισθήσεις -θα είναι υπέροχα. Σε ποιον αρέσει η δουλειά, ούτως ή άλλως; Η γεννητική τεχνητή νοημοσύνη δεν θα είναι το τέλος της απασχόλησης, μας λένε, παρά μόνο της “βαρετής εργασίας” – με τα chatbots να κάνουν βοηθητικά όλες τις ψυχοφθόρες, επαναλαμβανόμενες εργασίες και τους ανθρώπους να τις επιβλέπουν απλώς. Ο Altman, από την πλευρά του, βλέπει ένα μέλλον όπου η εργασία “μπορεί να είναι μια ευρύτερη έννοια, όχι κάτι που πρέπει να κάνεις για να μπορείς να φας, αλλά κάτι που κάνεις ως δημιουργική έκφραση και ως ένας τρόπος να βρεις την ικανοποίηση και την ευτυχία”.

Αυτό είναι ένα συναρπαστικό όραμα μιας πιο όμορφης, χαλαρής ζωής, το οποίο πολλοί αριστεροί μοιράζονται (συμπεριλαμβανομένου του γαμπρού του Καρλ Μαρξ, Πολ Λαφάργκ, ο οποίος έγραψε ένα μανιφέστο με τίτλο “Το δικαίωμα να είσαι τεμπέλης”). Αλλά εμείς ξέρουμε επίσης ότι αν το να κερδίζουμε χρήματα δεν είναι πλέον η κινητήρια επιταγή της ζωής, τότε πρέπει να υπάρχουν άλλοι τρόποι για να ικανοποιήσουμε τις δημιουργικές μας ανάγκες για στέγη και τροφή. Ένας κόσμος χωρίς άθλιες δουλειές σημαίνει ότι το ενοίκιο πρέπει να είναι δωρεάν, και η υγειονομική περίθαλψη πρέπει να είναι δωρεάν, και κάθε άνθρωπος πρέπει να έχει αναφαίρετα οικονομικά δικαιώματα. Και τότε ξαφνικά δεν μιλάμε καθόλου για τεχνητή νοημοσύνη – μιλάμε για σοσιαλισμό.

Επειδή δεν ζούμε στον ορθολογικό, ουμανιστικό κόσμο που εμπνέεται από το Star Trek και ο Altman φαίνεται να έχει παραισθήσεις. Ζούμε στον καπιταλισμό, και στο πλαίσιο αυτού του συστήματος, τα αποτελέσματα του κατακλυσμού της αγοράς με τεχνολογίες που μπορούν εύλογα να εκτελέσουν τα οικονομικά καθήκοντα αμέτρητων εργαζόμενων ανθρώπων δεν είναι ότι αυτοί οι άνθρωποι είναι ξαφνικά ελεύθεροι να γίνουν φιλόσοφοι και καλλιτέχνες. Σημαίνει ότι αυτοί οι άνθρωποι θα βρεθούν να κοιτάζουν την άβυσσο – με τους πραγματικούς καλλιτέχνες να είναι από τους πρώτους που θα πέσουν.

Αυτό είναι το μήνυμα της ανοιχτής επιστολής του Crabapple, η οποία καλεί “καλλιτέχνες, εκδότες, δημοσιογράφους, συντάκτες και ηγέτες δημοσιογραφικών συνδικάτων να δεσμευτούν για τις ανθρώπινες αξίες ενάντια στην χρήση των εικόνων που παράγονται από την τεχνητή νοημοσύνη” και “να δεσμευτούν να υποστηρίξουν την τέχνη της σύνταξης που γίνεται από ανθρώπους, όχι από φάρμες διακομιστών”.

Η επιστολή, που υπογράφεται πλέον από εκατοντάδες καλλιτέχνες, δημοσιογράφους και άλλους, αναφέρει ότι όλοι, εκτός από τους πιο εκλεκτούς καλλιτέχνες, βρίσκουν το έργο τους “σε κίνδυνο εξαφάνισης”. Και σύμφωνα με τον Χίντον, τον “νονό της τεχνητής νοημοσύνης”, δεν υπάρχει κανένας λόγος να πιστεύουμε ότι η απειλή δεν θα εξαπλωθεί. Τα chatbots αφαιρούν “την αγγαρεία της δουλειάς”, αλλά “μπορεί να αφαιρέσουν περισσότερα”.

Η Crabapple και οι συν-συγγραφείς της γράφουν:

“Η γεννητική τέχνη της τεχνητής νοημοσύνης είναι βαμπιρική, τρώγοντας από τις προηγούμενες γενιές έργων τέχνης, ακόμη και όταν ρουφάει το αίμα από τους ζωντανούς καλλιτέχνες. Υπάρχουν όμως τρόποι αντίστασης: μπορούμε να αρνηθούμε να χρησιμοποιήσουμε αυτά τα προϊόντα και να οργανωθούμε για να απαιτήσουμε από τους εργοδότες και τις κυβερνήσεις μας να τα απορρίψουν επίσης.”

Μια επιστολή από διακεκριμένους μελετητές της ηθικής της τεχνητής νοημοσύνης, συμπεριλαμβανομένου του Timnit Gebru, ο οποίος απολύθηκε από την Google το 2020 επειδή αμφισβήτησε τις διακρίσεις στο χώρο εργασίας, παραθέτει μερικά από τα ρυθμιστικά εργαλεία που μπορούν να εισαγάγουν άμεσα οι κυβερνήσεις – συμπεριλαμβανομένης της πλήρους διαφάνειας σχετικά με το ποια σύνολα δεδομένων χρησιμοποιούνται για την εκπαίδευση των μοντέλων. Οι συγγραφείς γράφουν:

“Όχι μόνο θα πρέπει να είναι πάντα σαφές πότε συναντάμε συνθετικά μέσα, αλλά οι οργανισμοί που κατασκευάζουν αυτά τα συστήματα θα πρέπει επίσης να υποχρεούνται να τεκμηριώνουν και να γνωστοποιούν τα δεδομένα εκπαίδευσης και τις αρχιτεκτονικές των μοντέλων… Θα πρέπει να κατασκευάζουμε μηχανές που λειτουργούν για εμάς, αντί να “προσαρμόζουμε” την κοινωνία ώστε να είναι αναγνώσιμη και εγγράψιμη από τις μηχανές”.

Αν και οι εταιρείες τεχνολογίας θα ήθελαν να πιστέψουμε ότι είναι ήδη πολύ αργά για να ανατρέψουμε αυτό το προϊόν μαζικής μίμησης που αντικαθιστά τον άνθρωπο, υπάρχουν εξαιρετικά σημαντικά νομικά και ρυθμιστικά προηγούμενα που μπορούν να εφαρμοστούν. Για παράδειγμα, η Ομοσπονδιακή Επιτροπή Εμπορίου των ΗΠΑ (FTC) ανάγκασε την Cambridge Analytica, καθώς και την Everalbum, τον ιδιοκτήτη μιας εφαρμογής φωτογραφιών, να καταστρέψουν ολόκληρους αλγορίθμους που διαπιστώθηκε ότι είχαν εκπαιδευτεί με παράνομα οικειοποιημένα δεδομένα που είχαν αποσπαστεί από φωτογραφίες.

Κατά τις πρώτες ημέρες της, η κυβέρνηση Μπάιντεν προέβαλε πολλούς τολμηρούς ισχυρισμούς σχετικά με την ρύθμιση της μεγάλης τεχνολογίας, συμπεριλαμβανομένης της πάταξης της κλοπής προσωπικών δεδομένων για την δημιουργία ιδιόκτητων αλγορίθμων. Με τις προεδρικές εκλογές να πλησιάζουν, τώρα θα ήταν μια καλή στιγμή να γίνουν πράξη αυτές οι υποσχέσεις – και να αποτραπούν οι επόμενες μαζικές απολύσεις πριν συμβούν.

Ένας κόσμος με βαθιά ψεύδη, βρόχους μιμητισμού και επιδείνωση της ανισότητας δεν είναι αναπόφευκτος. Είναι ένα σύνολο πολιτικών επιλογών. Μπορούμε να ρυθμίσουμε την τρέχουσα μορφή των βαμπιρικών chatbots από την ύπαρξη – και να αρχίσουμε να οικοδομούμε τον κόσμο στον οποίο οι πιο συναρπαστικές υποσχέσεις της Τεχνητής Νοημοσύνης θα είναι κάτι περισσότερο από παραισθήσεις της Silicon Valley.

Επειδή εκπαιδεύσαμε τις μηχανές. Όλοι μας. Αλλά ποτέ δεν δώσαμε την συγκατάθεσή μας. Τρέφονταν από την συλλογική εφευρετικότητα, την έμπνευση και τις αποκαλύψεις της ανθρωπότητας (μαζί με τα πιο διεφθαρμένα χαρακτηριστικά μας). Αυτά τα μοντέλα είναι μηχανές περίφραξης και οικειοποίησης, που καταβροχθίζουν και ιδιωτικοποιούν τις ατομικές μας ζωές καθώς και τις συλλογικές πνευματικές και καλλιτεχνικές μας κληρονομιές. Και ο στόχος τους δεν ήταν ποτέ να λύσουν την κλιματική αλλαγή ή να κάνουν τις κυβερνήσεις μας πιο υπεύθυνες ή την καθημερινότητά μας πιο χαλαρή. Ήταν πάντα να επωφεληθούν από την μαζική εξαθλίωση, η οποία, είναι η κραυγαλέα και λογική συνέπεια της αντικατάστασης των ανθρώπινων λειτουργιών με ρομπότ.

Είναι όλα αυτά υπερβολικά δραματικά; Μια αποπνικτική και αντανακλαστική αντίσταση στην συναρπαστική καινοτομία; Γιατί να περιμένουμε τα χειρότερα; Ο Altman μας καθησυχάζει: “Κανείς δεν θέλει να καταστρέψει τον κόσμο”. Ίσως όχι. Αλλά όπως μας δείχνουν καθημερινά οι συνεχώς επιδεινούμενες κλιματικές κρίσεις και οι κρίσεις εξαφάνισης, πολλοί ισχυροί άνθρωποι και θεσμοί φαίνεται να αισθάνονται μια χαρά γνωρίζοντας ότι συμβάλλουν στην καταστροφή της σταθερότητας των συστημάτων υποστήριξης της ζωής στον κόσμο, αρκεί να μπορούν να συνεχίσουν να αποκομίζουν κέρδη ρεκόρ που πιστεύουν ότι θα προστατεύσουν τους ίδιους και τις οικογένειές τους από τις χειρότερες επιπτώσεις.

Ο Altman, όπως πολλά όντα της Silicon Valley, το 2016 καυχιόταν: “Έχω όπλα, χρυσό, ιωδιούχο κάλιο, αντιβιοτικά, μπαταρίες, νερό, μάσκες αερίου από την Ισραηλινή Δύναμη Άμυνας και ένα μεγάλο κομμάτι γης στο Big Sur, στο οποίο μπορώ να πετάξω”.

Είμαι αρκετά σίγουρος ότι αυτά τα γεγονότα, λένε πολύ περισσότερα για το τι πραγματικά πιστεύει ο Altman για το μέλλον, που βοηθά να εξαπολυθεί, από ό,τι οι όποιες διανθισμένες ψευδαισθήσεις επιλέγει να μοιράζεται σε συνεντεύξεις του στον Τύπο.

3 σχόλια :

  1. τι σχέση έχει η ΑΙ με τις παραισθήσεις? έχει η τεχνολογία παραισθήσεις και δεν το ξέραμε? μην γράφετε οτι να΄ναι, η τεχνολογία είναι απλά τεχνολογία!!!

    ΑπάντησηΔιαγραφή
  2. Μάλλον δεν έχετε καταλάβει τι είναι η ΑΙ και τι δυνητικά μπορεί να αντιμετωπίσουμε στο μέλλον.

    ΑπάντησηΔιαγραφή
  3. Ένας από τους μεγαλύτερους φόβους μου, είναι μήπως προκαλέσουμε σημαντικές ζημιές στην κοινωνία. Αν αυτή η τεχνολογία βαδίσει στον λάθος δρόμο, μπορεί να πάει αρκετά μακριά.

    Δεν έχει υπάρξει ποτέ στην ιστορία της ανθρωπότητας τόσο τέλεια καταιγίδα.

    Έχω περάσει την ακαδημαϊκή καριέρα μου γοητευμένος από τον ρόλο που παίζει η τεχνολογία και τώρα η μεγαλύτερη πρόκληση που έχει αντιμετωπίσει ποτέ η ανθρωπότητα είναι μπροστά μας.

    Η τεχνητή νοημοσύνη είναι το αποκορύφωμα της τεχνολογικής προόδου και πιστεύω ότι θα είναι άνευ προηγουμένου στον καθορισμό του τρόπου με τον οποίο διαμορφώνεται ο κόσμος». «Η πολυπλοκότητα της ψηφιακής νοημοσύνης είναι τέτοια που έχει γίνει αυτόνομη. Είναι ζωτικής σημασίας να μείνουμε συντονισμένοι στο πώς θα πρέπει να γίνεται αυτό, διαφορετικά κινδυνεύουμε να μείνουμε πίσω.

    Υπάρχουν άνθρωποι που λένε ότι οι κίνδυνοι της τεχνητής νοημοσύνης υπερεκτιμώνται, αλλά στον κόσμο των πληροφοριών έχει εκπληκτικό αντίκτυπο, επισημαίνουν ειδικοί, τονίζοντας πως το ερώτημα που τίθεται είναι εάν μπορούμε να καταλάβουμε πραγματικά τι είναι αλήθεια και τι όχι και πως επαληθεύουμε αυτό που βλέπουμε στο διαδίκτυο.
    ΔΕΣ: Μπορούν τα συστήματα τεχνητής νοημοσύνης να έχουν ηθική;
    [ https://erevoktonos.blogspot.com/2023/06/blog-post_37.html ]

    ΑπάντησηΔιαγραφή