Τι είναι η τεχνητή νοημοσύνη.
Η τεχνητή νοημοσύνη (AI) είναι απλώς ένας κώδικας λογισμικού που έχει σχεδιαστεί για να εκτελεί ορισμένες πρακτικές εργασίες. Αυτός ο κώδικας ονομάζεται επίσης Νευρωνικό Νίκτυο (NN). Επιπλέον, αυτός ο κώδικας δεν είναι πολύ περίπλοκος από πλευράς προγραμματισμού, αλλά απαιτεί α) ισχυρούς υπολογιστικούς πόρους (και κατά συνέπεια, κατανάλωση ενέργειας) και β) τεράστιες ποσότητες δεδομένων, τα οποία ονομάζονται Big Data.
Τα μοντέλα νευρωνικών δικτύων (NN) βασίζονται σε ανώτερα μαθηματικά και στατιστικά στοιχεία. Ο αλγόριθμος NN λαμβάνει δομημένα δεδομένα ως είσοδο και μαθαίνει να βρίσκει μοτίβα σε αυτά. Οι πιο τυπικές εργασίες που επιλύει ένα νευρωνικό δίκτυο είναι:Δυαδική Ταξινόμηση δηλαδή η απάντηση σε μια ερώτηση με τη μορφή «ναι» ή «όχι».
Διαίρεση δεδομένων σε κλάσεις και αντιστοίχιση ενός αντικειμένου στην “είσοδο” σε μία από τις κλάσεις στην “έξοδο”, για παράδειγμα, αναγνωρίζοντας αυτό που φαίνεται στην εικόνα: “πορτοκάλι”, “λεμόνι” ή “γκρέιπφρουτ”.
Το απλούστερο, «αρχετυπικό» παράδειγμα πρακτικής εφαρμογής της τεχνητής νοημοσύνης είναι η έγκριση αίτησης δανείου. Ο αλγόριθμος μελετά όλες τις προσωπικές πληροφορίες που είναι διαθέσιμες για εσάς και αποφασίζει εάν είστε ένας πειθαρχημένος δανειολήπτης που θα επιστρέψει τα χρήματα με τόκο ή εάν θα πρέπει να ταξινομηθείτε ως προεπιλεγμένος τύπος, π.χ. αντιπροσωπεύετε έναν πιθανό κίνδυνο για την τράπεζα. Παρόμοια προβλήματα λύνονται σήμερα σχεδόν σε όλους τους επιχειρηματικούς τομείς.
Η τεχνητή νοημοσύνη έχει ήδη διεισδύσει αρκετά βαθιά στην καθημερινότητά μας. Υπάρχουν πολλοί κύριοι τομείς εφαρμογής του.
Υπολογιστική όραση.
Εδώ ο αλγόριθμος μαθαίνει να βρίσκει συγκεκριμένα αντικείμενα σε στατικές εικόνες ή βίντεο και να τα ταξινομεί σωστά. Πολλοί ιδιοκτήτες αυτοκινήτων έχουν από καιρό συνηθίσει να λαμβάνουν πρόστιμα από τις κρατικές υπηρεσίες. Τα ψηφίσματα περιλαμβάνουν φωτογραφίες των αυτοκινήτων τους που παραβιάζουν ορισμένους κανόνες κυκλοφορίας.
Αυτό το πρόβλημα επιλύεται με ακρίβεια με την βοήθεια της τεχνητής νοημοσύνης: πρώτον, ο αλγόριθμος εκπαιδεύεται σε εκατομμύρια παραδείγματα για να αναγνωρίζει διαφορετικούς τύπους καταστάσεων κυκλοφορίας και να τους ταξινομεί. Στην συνέχεια λαμβάνει δεδομένα από κάμερες δρόμου ως είσοδο και τα πράγματα ξεκινούν. Οι ίδιοι αλγόριθμοι χρησιμοποιούνται για «μη επανδρωμένη» οδήγηση, για διάφορες βιομηχανικές εργασίες, όπου είναι απαραίτητο να διδάξουμε έναν υπολογιστή να «καταλαβαίνει» τι συμβαίνει στην εικόνα.
Χρονική σειρά.
Αυτά είναι προβλήματα πρόβλεψης αλλαγών στα χρονοδιαγράμματα στο μέλλον με βάση την προηγούμενη εμπειρία. Για παράδειγμα, η πρόβλεψη των αποτελεσμάτων της διαπραγμάτευσης μετοχών. Η είσοδος του αλγορίθμου είναι δεδομένα προηγούμενων συναλλαγών και η έξοδος είναι μια πρόβλεψη ή μια τάση με ένα ορισμένο επίπεδο πιθανότητας. Πρόβλεψη καιρού, πρόβλεψη φορτίων σε εγκαταστάσεις υποδομής, πρόβλεψη ζήτησης, κίνησης κ.λπ. τύποι προβλημάτων που σχετίζονται με διαδικασίες που εκτυλίσσονται με την πάροδο του χρόνου – όλα αυτά είναι προβλήματα ανάλυσης χρονοσειρών.
Συστήματα συστάσεων.
Όλοι χρησιμοποιούμε Google και Yandex. Παραγγέλνουμε τακτικά κάθε είδους προϊόντα από ηλεκτρονικά καταστήματα. Λίγοι πιστεύουν ότι εδώ μπαίνουμε σε άμεση αλληλεπίδραση με την τεχνητή νοημοσύνη. Για παράδειγμα, όταν αγοράζετε κάτι στο Ozone ή το Wildbury, ο αλγόριθμος συγκρίνει τα προσωπικά σας δεδομένα που έχει στη διάθεσή του -και αυτό είναι ένας τεράστιος όγκος πληροφοριών για την συμπεριφορά σας στο Διαδίκτυο- με αντίστοιχες πληροφορίες για άλλους χρήστες, αναλύει τις ιδιότητες των προϊόντων αγοράζετε, τα συγκρίνετε με τις ιδιότητες άλλων προϊόντων που διατίθενται προς πώληση και… συνιστά να αγοράσετε άλλα προϊόντα που μπορεί να σας ενδιαφέρουν.
Σήμερα, το επίπεδο ακρίβειας των συστάσεων είναι ήδη πολύ υψηλό. Επιπλέον, μερικές φορές αυτές μπορεί να είναι εντελώς απροσδόκητες αντιστοιχίες, οι οποίες με βάση τα ανθρώπινα πρότυπα σε καμία περίπτωση δεν σχετίζονται μεταξύ τους. Ας υποθέσουμε ότι αγοράζετε αφρόλουτρο και σας προτείνουν να προσθέσετε μονωμένα κολάν ή ένα πιεσόμετρο στην παραγγελία σας. Οι αλγόριθμοι για στοχευμένη και συμφραζόμενη διαφήμιση βασίζονται επίσης στην χρήση συστημάτων συστάσεων.
Μέσα Κοινωνικής Δικτύωσης.
Τα κοινωνικά δίκτυα «ξέρουν» για εμάς περισσότερα από όσα φανταζόμαστε, και ακόμη, ίσως, περισσότερα από όσα ξέρουμε για τον εαυτό μας. Επειδή αποθηκεύουν και αναλύουν προσεκτικά όλες τις πληροφορίες που εμείς οι ίδιοι ανεβάζουμε σε αυτά, παρακολουθούν τις αντιδράσεις μας, καθώς και τις αντιδράσεις άλλων ανθρώπων στις ενέργειές μας.
Για παράδειγμα, τραβήξατε μια φωτογραφία από το smartphone σας και την ανεβάσατε σ’ ένα απαγορευμένο κοινωνικό δίκτυο. Θα φαινόταν σαν ένα αθώο πράγμα. Όλοι το έχουμε κάνει αυτό χιλιάδες φορές. Αλλά λίγοι άνθρωποι συνειδητοποιούν ότι η φωτογραφία αποθηκεύει μια ολόκληρη δέσμη πρόσθετων παραμέτρων, για παράδειγμα, τον τύπο του smartphone που έχετε και τα δεδομένα τοποθεσίας την στιγμή της λήψης.
Αναλύοντας το περιεχόμενο των εικόνων σας, ο αλγόριθμος κατανοεί πού και με ποιον ήσασταν κοντά. Ήδη, οι υπηρεσίες πληροφοριών σε όλο τον κόσμο χρησιμοποιούν τα κοινωνικά δίκτυα για την πλήρη επιτήρηση των συνδρομητών, ωστόσο, η υπολογιστική ισχύς δεν είναι ακόμη αρκετή για να υπολογίσει σε πραγματικό χρόνο τα yottabytes των πληροφοριών που είναι αποθηκευμένες στους διακομιστές τους. Βέβαια αυτό είναι απλά θέμα χρόνου στο να γίνει πράξη.
Δημιουργία κειμένου και εικόνων.
Πολλοί άνθρωποι χρησιμοποιούν ήδη νευρωνικά δίκτυα όπως το ChatGPT, το Midjourney, το Dall-E για τη δημιουργία κειμένου και εικόνων. Συχνά συμβαίνει ότι τα αποτελέσματα μιας τέτοιας γενιάς είναι δύσκολο να διακριθούν από αυτά που δημιουργούνται από πραγματικούς ανθρώπους. Αυτό, ωστόσο, δεν προκαλεί έκπληξη.
Επειδή τα δεδομένα από το Διαδίκτυο χρησιμοποιήθηκαν για την εκπαίδευση αυτών των νευρωνικών δικτύων που παράγουν. Μπορούμε να πούμε ότι το GPT είναι ένα στατιστικά μέσο αποτέλεσμα της ανθρώπινης δραστηριότητας. Δεν μπορεί να προσφέρει τίποτα λαμπρό, γιατί οι «δάσκαλοί» του είναι απλοί άνθρωποι. Για να γίνει το GPT λαμπρό, είναι απαραίτητο να συγκεντρώσει χιλιάδες λαμπρούς ανθρώπους και να τους συμπεριλάβει στην διαδικασία της εκπαίδευσής του. Ωστόσο, ακόμη και σε αυτήν την περίπτωση είναι απίθανο να μπορέσει να υπερβεί τις δυνατότητες της συνηθισμένης ανθρώπινης κατανόησης.
Οι απειλές της AI.
Έτσι, είμαστε ήδη περικυκλωμένοι από AI από όλες τις πλευρές. Και η διαδικασία εισαγωγής αλγορίθμων μηχανών στην καθημερινότητά μας προχωρά με επιταχυνόμενους ρυθμούς. Αυτό είναι σίγουρα ανησυχητικό. Εάν σήμερα τα αυτοκίνητα, τα smartphone, ακόμη και οι ηλεκτρικές σκούπες μπορούν να εκτελέσουν τις φωνητικές εντολές σας και να λύσουν τα προβλήματά σας χωρίς την άμεση συμμετοχή σας, τι θα συμβεί αύριο; Είναι προφανές ότι η ψηφιοποίηση επηρεάζει ολόκληρη την κοινωνία μας και η ιδέα ότι η περαιτέρω ανάπτυξη αυτής της διαδικασίας εγκυμονεί ορισμένους κινδύνους είναι πολύ σχετική.
Αυτό που φοβίζει περισσότερο πολλούς ανθρώπους είναι η πιθανότητα να αναγκαστούν οι άνθρωποι να εγκαταλείψουν την παραγωγή, δηλ. απώλεια θέσεων εργασίας και, ως εκ τούτου, κέρδη, χρηματοπιστωτική σταθερότητα. Κατά την γνώμη μας, μια τέτοια απειλή, αν και είναι σίγουρα πραγματική, δεν είναι ό,τι χειρότερο μας περιμένει.
Συμφωνώ, αν ζούσαμε σε μια δίκαιη κοινωνία, όπου η φροντίδα των ανθρώπων είναι προτεραιότητα, τότε η αυτοματοποίηση των διαδικασιών υποστήριξης της ζωής θα μας έκανε μόνο ευτυχισμένους. Γιατί μας ελευθερώνει τον χρόνο, πολύ από τον οποίο σπαταλάμε σε ανοησίες. Αυτός ο χρόνος θα μπορούσε να δαπανηθεί σε κάτι πιο πολύτιμο και ενδιαφέρον, για παράδειγμα, δημιουργικότητα, αυτο-ανάπτυξη, οικογένεια.
Ένα άλλο πρόβλημα που βρίσκεται στην επιφάνεια και συζητείται ενεργά είναι το ζήτημα του απόλυτου ελέγχου και της ελεύθερης βούλησης. Πράγματι, εάν οι υπολογιστές γνωρίζουν ακόμη περισσότερα για εμάς από ό,τι γνωρίζουμε εμείς για τον εαυτό μας, είναι πολύ πιθανό αυτά τα δεδομένα να χρησιμοποιηθούν εναντίον μας. Μπορεί να περιοριζόμαστε στα δικαιώματά μας, να στερούμαστε πρόσβασης, να στερούμαστε ιδιοκτησίας κ.λπ.
Η εισαγωγή της λεγόμενης κοινωνικής βαθμολογίας – και αυτό, προφανώς, είναι το άμεσο καθήκον στην ημερήσια διάταξη – μπορεί να περιορίσει σημαντικά την ελευθερία μας. Αυτό ισχύει ιδιαίτερα για «αναξιόπιστους» ανθρώπους, αλλά πού είναι η εγγύηση ότι ένα γενικά κοινωνικά υγιές άτομο δεν θα ταξινομηθεί ως «παράσιτο»; Το να εμπιστευτείς την μοίρα σου στα «χέρια» ενός αλγορίθμου είναι μια τέτοια προοπτική. Θυμάστε την πλοκή της ταινίας «Brazil»;
Και, εν τω μεταξύ, εάν η κοινωνία μας ήταν δομημένη στις αρχές της αμοιβαίας εμπιστοσύνης, εάν οι κρατικοί θεσμοί προσπαθούσαν να φέρουν καλό στους ανθρώπους, αυτού του είδους η «ψηφιοποίηση» μπορεί να φαινόταν όχι μόνο αποδεκτή, αλλά και επιθυμητή. Είναι κακό όταν ένας υπολογιστής αναγνωρίζει έναν εγκληματία, αναγνωρίζει έναν απατεώνα, πριν προλάβει να προκαλέσει κακό; Είναι κακό αν ένας αλγόριθμος διαγνώσει απότομη επιδείνωση της υγείας πριν συμβεί εγκεφαλικό ή καρδιακό επεισόδιο και σας επιτρέπει να χρησιμοποιείτε προληπτικές μεθόδους για να σώσετε ζωές;
Ωστόσο, η κοινωνία στην οποία ζούμε δύσκολα μπορεί να χαρακτηριστεί δίκαιη. Και εξαιτίας αυτού, η ρομποτοποίηση γίνεται αντιληπτή με προσοχή. Ωστόσο, δεν μπορούμε να κάνουμε τίποτα για αυτό. Ως συνήθως, όλα έχουν ήδη αποφασιστεί για εμάς· απλώς μας παρουσιάζεται ένα τετελεσμένο γεγονός. Αποδεικνύεται ότι το πρόβλημα δεν βρίσκεται στην AI, αλλά στο ίδιο το σύστημα ζωής στο οποίο βρισκόμαστε σήμερα. Το πρόβλημα είναι ποιος ακριβώς ελέγχει τους αλγόριθμους AI.
Μήπως τα ίδια τα νευρωνικά δίκτυα αποτελούν άμεση απειλή για τους ανθρώπους;
Επείγοντα ζητήματα ασφάλειας νευρωνικών δικτύων.
Σε μία πολύ ενδιαφέρουσα ομιλία του Andrey Karpathy, ενός από τους ιδρυτές της εταιρείας Open AI, του κορυφαίου ειδικού στον κόσμο στον τομέα της AI, του ανθρώπου που ήταν στην αρχή του GPT.
Όπου GPT = Generative Pre-trained Transformer, το οποίο μπορεί να μεταφραστεί ως “Δημιουργία Προεκπαιδευμένου Μετασχηματιστή”. Αυτός είναι ένας αλγόριθμος, ένα μαθηματικό μοντέλο που, μετά από κατάλληλη εκπαίδευση, είναι ικανό να δημιουργήσει/παράξει μια ροή πληροφοριών κειμένου μεταμορφώνοντας το κείμενο που αρχικά περιλαμβανόταν στην εκπαίδευσή του [του αλγόριθμου]. Εναλλακτικά, δημιουργήστε νέες εικόνες με βάση αυτές που είχατε δει στο παρελθόν.
Σε αυτή την διάλεξη, αναλύει το ερώτημα του:
- Τι είναι τα Μεγάλα Γλωσσικά Μοντέλα (LLM);
- Ποια είναι η αρχιτεκτονική τους;
- Πόσοι και ποιοι πόροι απαιτούνται για την εκπαίδευση τέτοιων μοντέλων;
- Πώς και από ποιον διδάσκονται και πώς εκπαιδεύονται;
- Ποιες είναι οι προοπτικές για την ανάπτυξη γλωσσικών μοντέλων;
- Ποιες δυσκολίες και προκλήσεις συνδέονται με αυτή την διαδικασία;
Σε αυτό το πλαίσιο, μιλά για το πώς τα νευρωνικά δίκτυα συχνά «παραισθάνονται». Αυτό σημαίνει ότι στην έξοδο παράγουν κείμενο που στατιστικά φαίνεται απόλυτα σωστό σε μορφή, αλλά δεν έχει νόημα από άποψη περιεχομένου. Οι ψευδαισθήσεις αυτού του είδους είναι απολύτως φυσικές, και στην μαθησιακή διαδικασία το καθήκον είναι ακριβώς να φέρει την διαδικασία της φαντασίωσης σε τέτοιο επίπεδο όταν οι ψευδαισθήσεις παύουν να είναι εκτός πλαισίου και αρχίζουν να εντάσσονται στο πλαίσιο της ανθρώπινης κατανόησης.
Δεν θα επαναλάβουμε το περιεχόμενο ολόκληρης της ομιλίας. Το κύριο μέρος του είναι αφιερωμένο στο ζήτημα της εξέλιξης των μεγάλων γλωσσικών μοντέλων και των εργασιών που είναι σε θέση να λύσουν σήμερα και θα μπορούν να λύσουν στο μέλλον.
Συγκεκριμένα, μιλάμε για μετακίνηση από μια πρωτόγονη μίμηση του ανθρώπινου λόγου, δηλ. από την πρόβλεψη μιας ακολουθίας λέξεων, που είναι αυτό που ουσιαστικά κάνουν τώρα τα γλωσσικά νευρωνικά δίκτυα, προχωρώντας σε θεμελιωδώς νέα επίπεδα οργάνωσης αλγορίθμων. Τα μελλοντικά νευρωνικά δίκτυα πρέπει να μάθουν να «σκέφτονται λογικά» και να βελτιώνονται. Αυτές είναι οι εργασίες που βρίσκονται στην ατζέντα των προγραμματιστών σήμερα.
Στο τελευταίο μέρος της έκθεσης αναλύονται τα θέματα ασφάλειας LLM. Στο πλαίσιο αυτό, εκφράζονται τα ακόλουθα προβλήματα:
Jailbreak (Μοντέλο Ηacking)
Μιλάμε για μια κατάσταση όπου ένα άτομο βρίσκει την ευκαιρία να παρακάμψει τις εσωτερικές «απαγορεύσεις» του νευρωνικού δικτύου και να «ψαρέψει» απαγορευμένες πληροφορίες από αυτό. Φανταστείτε τι θα συμβεί αν κάποιοι «εγκληματίες» λάβουν πληροφορίες από ένα νευρωνικό δίκτυο για το πώς να παράγουν μια «βρώμικη» βόμβα ή, ας πούμε, μια τοξική ουσία σε μεγάλους όγκους -στο σπίτι;
Αρχικά, ο αλγόριθμος προγραμματίζεται με τέτοιο τρόπο ώστε να αποκλείει τέτοια αιτήματα. Αλλά το νευρωνικό δίκτυο είναι «αφελές». Δεν μπορεί να αξιολογήσει τις προθέσεις του ερωτώντος, προσπαθεί μόνο να δημιουργήσει την καλύτερη δυνατή απάντηση. Αυτό εγείρει την απειλή ότι είναι πολύ πιθανό -και αυτό επιβεβαιώνεται από την πρακτική- να χακάρουμε τον εσωτερικό αμυντικό μηχανισμό του νευρωνικού δικτύου και να λαμβάνουμε οδηγίες από αυτό για το πώς να βλάψουμε άλλους.
Prompt Injection.
Αυτό μοιάζει με μια απειλή hacking. Σε αυτήν την περίπτωση, οι εισβολείς χρησιμοποιούν σύνθετες μορφές αιτημάτων που προκαλούν το νευρωνικό δίκτυο να ενεργεί «ασυνεπώς». Μπορούμε να το συγκρίνουμε χονδρικά με έναν «ιό». Ας υποθέσουμε ότι κατεβάζετε ένα αρχείο pdf από το Διαδίκτυο και ζητάτε από το νευρωνικό δίκτυο να συντάξει μια περίληψη για εσάς. Αλλά ποτέ δεν σας περνάει από το μυαλό ότι χάρη σε ειδικές ρυθμίσεις, αυτό το αρχείο είναι σε θέση να «αναχαιτίσει» τον έλεγχο του νευρωνικού δικτύου και αντικαθιστά το αίτημά σας με το δικό του. Για παράδειγμα, ζητά από το νευρωνικό δίκτυο να εξαγάγει τα προσωπικά σας στοιχεία και να τα καταγράψει στο Google Doc, στο οποίο έχει πρόσβαση ο εισβολέας.
Δηλητηρίαση δεδομένων. Εισβολή από την «πίσω πόρτα» (Blackdoor Attack).
Εδώ μιλάμε ήδη για «αδίστακτους» προγραμματιστές των ίδιων των νευρωνικών δικτύων. Για παράδειγμα, κατά την δημιουργία της δικής τους προσαρμοσμένης έκδοσης ενός κατά τα άλλα δημοσίως διαθέσιμου μοντέλου παραγωγής, οι προγραμματιστές ενσωματώνουν στην αρχιτεκτονική του ορισμένα στοιχεία ενεργοποίησης (λέξεις, εικόνες), στα οποία το μοντέλο αντιδρά με συγκεκριμένο τρόπο. Μέχρι να συναντήσει αυτούς τους κανόνες ενεργοποίησης, «συμπεριφέρεται» σαν μια κανονική συνομιλία GPT.
Αλλά αν ξαφνικά συναντήσει (για παράδειγμα, κατά την εκτέλεση ενός εξωτερικού αιτήματος μέσω Διαδικτύου) μια τέτοια κωδική λέξη, ενεργοποιείται ο εσωτερικός διακόπτης και εκτελεί μια συγκεκριμένη προγραμματισμένη ακολουθία ενεργειών που έχουν ενσωματωθεί σε αυτόν από τους προγραμματιστές. Σ’ αυτή την περίπτωση, ο χρήστης, όπως και στην προηγούμενη περίπτωση, μπορεί να μην γνωρίζει καν ότι δέχεται επίθεση.
Αυτοί οι τύποι τρωτών σημείων είναι μόνο ένα μικρό παράδειγμα των πραγματικών απειλών που μας ανοίγει η εποχή των νευρωνικών δικτύων. Αυτά τα συγκεκριμένα θέματα ασφαλείας που αναφέρθηκαν παραπάνω γενικά έχουν ήδη εξαλειφθεί, γι’ αυτό και ο Καρπάτι μιλάει για αυτά ανοιχτά, αλλά στην συνέχεια αναφέρει μια σειρά από άλλα προβλήματα, «αντίδοτα» για τα οποία δεν έχουν βρεθεί ακόμη:
- Αντίπαλες εισροές
- Μη ασφαλής χειρισμός εξόδου
- Εξαγωγή δεδομένων και απόρρητο
- Ανακατασκευή δεδομένων
- Άρνηση παροχής υπηρεσιών
- Κλιμάκωση
- Υδατογράφημα και υπεκφυγή
- Κλοπή μοντέλου κλπ.
Σε μια κατάσταση εκθετικής αύξησης της απόδοσης των νευρωνικών δικτύων, λαμβάνοντας υπόψη την πιθανή αυτοβελτίωσή τους, δεν είναι δύσκολο να φανταστεί κανείς μια κατάσταση όπου το ίδιο το νευρωνικό δίκτυο χρησιμοποιεί τους δικούς του αλγόριθμους για την επίλυση προβλημάτων που αρχικά είναι πέρα από τις αρμοδιότητές του.
Το θέμα είναι ότι μπορεί κάλλιστα να προκύψει μια κατάσταση όταν ένα νευρωνικό δίκτυο μαθαίνει να «νικάει» ένα άτομο «στη ζωή», όπως το AlphaGo έμαθε να νικάει τους κυρίους του Go. Στην πραγματικότητα, αυτό είναι που φοβούνται περισσότερο ο Musk και άλλοι ηγέτες του κλάδου.
Το θέμα της κοινωνικής δικαιοσύνης είναι το λιγότερο που απασχολεί τους προγραμματιστές τεχνητής νοημοσύνης.
Για παράδειγμα, δίνετε στον αλγόριθμο του νευρωνικού δικτύου πρόσβαση στον λογαριασμό κρυπτονομισμάτων σας, ώστε να μπορεί να συμμετέχει σε συναλλαγές στο χρηματιστήριο για λογαριασμό σας. Τέτοιες υπηρεσίες είναι ήδη διαθέσιμες και σε ζήτηση. Και απλά φανταστείτε ότι όλα τα χρήματα από τον λογαριασμό σας εξαφανίζονται προς άγνωστη κατεύθυνση. Σε κανέναν δεν θ’ αρέσει αυτό.
Ή ας υποθέσουμε ότι στέλνετε ένα αίτημα στο GPT για την δημιουργία κειμένου για την ερευνητική σας εργασία. Και ως αποτέλεσμα, όλη η αλληλογραφία σας καταλήγει σε κάποια εξωτερική αποθήκευση δεδομένων στο δημόσιο τομέα. Συμφωνώ, αυτό είναι δυσάρεστο. Αλλά όλα αυτά είναι λεπτομέρειες. Ποιο είναι, όμως, το «αλάτι» του προβλήματος;
Νευρωνικά Δίκτυα: Η Πραγματικότητα μιας Παγκόσμιας Απειλής.
Εδώ θα ήθελα να επιστρέψω στην αρχή του άρθρου και να σας υπενθυμίσω ότι οποιοδήποτε νευρωνικό δίκτυο είναι απλώς ένας αλγόριθμος. Κανένας αλγόριθμος, ακόμη και ο πιο εξελιγμένος, δεν μπορεί να βλάψει κανέναν αν… δεν ενσωματωθεί στην αρχιτεκτονική του από τους προγραμματιστές.
Στην πραγματικότητα, μιλάμε για το γεγονός ότι είναι δυνατό να χρησιμοποιηθεί η δυνατότητα των νευρωνικών δικτύων για να προκαλέσει σκόπιμα βλάβη και να δημιουργήσει απειλές για όλη την ανθρωπότητα προς το συμφέρον μιας ενδιαφερόμενης ομάδας ανθρώπων. Σε γενικές γραμμές δηλαδή, όλα εξαρτώνται από τον πελάτη.
Αυτή η απειλή είναι πραγματική για τον καθένα μας στο βαθμό που είμαστε, καταρχήν, έτοιμοι να παραδεχτούμε ότι στον κόσμο μας υπάρχουν ορισμένες δυνάμεις που προσπαθούν με κάθε μέσο και ανεξάρτητα από οποιεσδήποτε εκτιμήσεις ανθρωπισμού και κοινής λογικής, να διεκδικήσουν την δική σας ανωτερότητα και προνομιακή θέση σε σχέση με όλους τους άλλους ανθρώπους.
Δηλαδή, στην ουσία, αυτό το ερώτημα είναι καθαρά συνωμοσιολογικό.
Πιστεύετε ότι μπορεί κάποιος να καταλαβαίνει κάτι για τα νευρωνικά δίκτυα; Η ανησυχία που εξέφρασε έχει κάποια βάση στην πραγματικότητα; Και μιλάει ευθέως για το πρόβλημα; Το νευρωνικό δίκτυο δεν έχει -και δεν θα αποκτήσει ποτέ- συναισθήματα, αισθήματα ή διαίσθηση. Κανένα μαθηματικό μοντέλο, όσο εξελιγμένο κι αν είναι, δεν μπορεί να αντικαταστήσει έναν άνθρωπο. Μάλλον δεν υπάρχει λόγος να διαφωνήσουμε με αυτό.
Ωστόσο, είναι αρκετά ρεαλιστικό ότι εάν ένα τόσο ισχυρό εργαλείο πέσει στα χέρια ενός μανιακού με ιδέες της δικής του ‘ανωτερότητας΄τότε η έκβαση τέτοιων γεγονότων είναι δύσκολο να προβλεφθεί. Για παράδειγμα, ας φανταστούμε ότι ένας συγκεκριμένος προγραμματιστής με επαρκείς υπολογιστικούς πόρους εκπαιδεύει το νευρωνικό του δίκτυο στα γενετικά δεδομένα αρκετών εκατομμυρίων ανθρώπων, ζώων, πουλιών, ψαριών και φυτών. Ας πούμε ότι ένα τέτοιο δίκτυο λειτουργεί με πολλά τρισεκατομμύρια παραμέτρους και η εκπαίδευση του απαιτεί χρόνια δουλειάς σε πολλά σύγχρονα κέντρα δεδομένων και καύση γιγαβάτ ηλεκτρικής ενέργειας.
Ωστόσο, ως αποτέλεσμα, ο ιδιοκτήτης/πελάτης όλης αυτής της επιχείρησης έχει την ευκαιρία να δημιουργήσει οποιονδήποτε κωδικό RNA/DNA, συμπεριλαμβανομένου του κωδικού ενός ιού, ο οποίος, όταν εισέρχεται σε έναν βιολογικό οργανισμό με δεδομένες παραμέτρους, προκαλεί μια ελεγχόμενη μη αναστρέψιμη γενετική μετάλλαξη. Και παράλληλα με αυτόν τον ιό, αναπτύσσεται ένα συγκεκριμένο «εμβόλιο» -το οποίο εγγυάται ότι θα εξουδετερώσει την επίδραση του ιού στον ίδιο οργανισμό.
Με φόντο μια ολόκληρη σειρά γεγονότων που γίναμε μάρτυρες τα τελευταία κυριολεκτικά 5 χρόνια, μπορούμε να θεωρήσουμε ότι έχουμε εγγυήσεις ότι τέτοια έρευνα δεν διεξάγεται από κανέναν στον κόσμο; Γιατί πιστεύετε ότι στους παγκοσμιοποιητικούς κύκλους η στρατηγική βιώσιμης ανάπτυξης περιορίζεται στο 2030; Μήπως μέχρι φέτος σχεδιάζεται να τελειώσει η εκπαίδευση ενός τέτοιου νευρωνικού δικτύου και τελικά να εκμεταλλευτεί πλήρως τις δυνατότητές του;
Τι Μπορούμε να Κάνουμε;
Ένα φυσιολογικό, υγιές άτομο δεν θέλει να ανέχεται αυτό το είδος προοπτικής. Και ως εκ τούτου το ερώτημα – μπορούμε να κάνουμε τουλάχιστον κάτι σε αυτήν την κατάσταση; Ίσως να υπάρχει μόνο ένας τρόπος. Είναι απαραίτητο να αλλάξει η κοσμοθεωρία μας. Μαζικά. Όλοι οι άνθρωποι στην Γη. Είναι όμως αυτό εφικτό; Μπορεί. Και δεν είναι λιγότερο δυνατή από την δημιουργία ενός κακόβουλου νευρωνικού δικτύου.
Είναι απαραίτητο να κατανοήσουμε πλήρως την απειλή και να προσδιορίσουμε την πηγή της, δηλ. τον πελάτη. Επιπλέον, δεν χρειάζεται καν να το ονομάσουμε: δεν αλλάζει τίποτα. Απλά πρέπει να δείτε, να καταλάβετε και να παραδεχτείτε ότι εμείς, οι γήινοι, βρισκόμαστε αντιμέτωποι με μια άνευ προηγουμένου απειλή που θέτει υπό αμφισβήτηση την ίδια την επιβίωση της παγκόσμιας ανθρωπότητας.
Και εδώ είναι το παράδοξο. Αρκεί μια μικρή ομάδα λογικών ανθρώπων που, για παράδειγμα, θα δημιουργήσει ένα άλλο νευρωνικό δίκτυο, το οποίο θα βασίζεται σε διαφορετικές αρχές συνύπαρξης του ανθρώπου, του πλανήτη και ολόκληρου του σύμπαντος. Αυτό που δεν θα βοηθήσει στο σχεδιασμό μιας στρατηγικής υποδούλωσης και καταστροφής, αλλά αντίθετα, θα χτίσει μια στρατηγική επιβίωσης απέναντι στις απειλές που εκφράστηκαν παραπάνω.
Αποδεικνύεται ότι αντιμετωπίζουμε μια εποχή πολέμου νευρωνικών δικτύων; Όχι. Μάλλον, είναι μια αντιπαράθεση κοσμοθεωριών. Αυτή η μάχη, που γίνεται στο υψηλότερο επίπεδο κοινωνικής διαχείρισης, είναι μια φιλοσοφική μάχη. Η ίδια η ιδέα του πολέμου μπορεί να εξαλειφθεί μόνο με την μέθοδο της φιλοσοφίας της ειρήνης.
Είναι απαραίτητο να δημιουργηθεί ένα περιβάλλον διαβίωσης στο οποίο η αντιπαράθεση και η ανωτερότητα απλά δεν έχουν νόημα. Στην οποία η συνεργασία για χάρη της επίτευξης κοινών παγκόσμιων στόχων θα γίνει ο βασικός κανόνας της κοινής πλανητικής ύπαρξης. Σε ένα τέτοιο περιβάλλον, η τεχνητή νοημοσύνη θα πάρει την θέση που της αρμόζει και θα γίνει πραγματικός βοήθημα στην εξελικτική πρόοδο του πλανητικού πολιτισμού.
Δεν υπάρχουν σχόλια :
Δημοσίευση σχολίου