Ερευνητές φαντάζονται προληπτικά τι κακό μπορεί να κάνει η τεχνητή νοημοσύνη στην ανθρωπότητα. Ανεργία, πολιτικός έλεγχος, αφανισμός είναι μερικά παραδείγματα.
Οι ανεξέλεγκτες δυνατότητες της τεχνητής νοημοσύνης (Artificial Intelligence ή AI) είναι και ένας από τους μεγαλύτερους φόβους του Stephen Hawking, ο οποίος θεωρεί ότι μπορεί κάποια μέρα η AI να αφανίσει την ανθρωπότητα, επειδή μηχανές που έχουν τη δυνατότητα να μαθαίνουν και να βελτιώνονται μπορούν να ξεπεράσουν τα όρια του ανθρώπινου μυαλού.
Hawking: ο άνθρωπος μπορεί να γίνει για την AI ό,τι το μυρμήγκι για τον άνθρωπο
Μία νέα μελέτη, η οποία χρηματοδοτήθηκε μερικώς από fund του βαθύπλουτου εφευρέτη και επιχειρηματία Elon Musk, ο οποίος συμμερίζεται τις ανησυχίες του Hawking, εξετάζει τις πιθανότητες και τα σενάρια τα οποία θα μπορούσαν να γίνουν πραγματικότητα, σε περίπτωση που οι άνθρωποι "έχτιζαν", εκούσια ή ακούσια, κακόβουλες μηχανές με τεχνητή νοημοσύνη.
Η μελέτη πραγματοποιήθηκε από τον ανεξάρτητο ερευνητή Federico Pistono και τον επιστήμονα ηλεκτρονικών υπολογιστών Roman Yampolskiy του Πανεπιστημίου του Λούισβιλ και προ-δημοσιεύτηκε με τίτλο "Ανήθικη Έρευνα: Πώς Να Δημιουργήσετε Κακόβουλη Τεχνητή Νοημοσύνη", αυτόν τον μήνα, στο arXiv.
Στόχος της δουλειάς είναι να παράσχει πληροφορίες σχετικά με το πώς μπορεί να προκύψει μία κακόβουλη μηχανή με τεχνητή νοημοσύνη, οι οποίες θα μπορούσαν, σύμφωνα με τους συγγραφείς της σχετικής μελέτης, να βοηθήσουν τους ειδικούς να αποφύγουν την ανάδυση επικίνδυνης AI που θα ήταν σε θέση ακόμα και να εξαφανίσει το ανθρώπινο είδος.
Μπορεί η κατασκευή τεχνητής νοημοσύνης να αποδειχθεί μοιραία για το μέλλον της ανθρωπότητας;
Για τον σκοπό αυτό, οι ερευνητές περιγράφουν το γενικό πλαίσιο μέσα στο οποίο μπορεί να κατασκευαστεί κακόβουλη τεχνητή νοημοσύνη ή Malevolent Artificial Intelligence (MAI), όπως την ονομάζουν, αλλά και παραδείγματα δουλειάς που μπορεί να οδηγήσει στην ανάδυσή της.
Μπορεί η οδός που επέλεξαν οι ερευνητές να φαίνεται παράδοξη (περιγράφουν την κατασκευή κάτι του οποίου την κατασκευή πασχίζουν να εμποδίσουν), αλλά δεν είναι. Η λογική λέει πως είναι καλύτερα να εντοπιστεί μια υποθετική απειλή μέσω ειρηνικής έρευνας, παρά να χρειαστεί να προσαρμοστεί η έρευνα στο πλαίσιο ενός πολέμου.
Τι βρήκαν, λοιπόν, οι Pistono και Yampolskiy, ότι μπορεί να συμβεί αν απειλούμαστε στο μέλλον από μια MAI και όχι κατευθείαν από την συνηθισμένη ανθρώπινη βλακεία ως συνήθως συμβαίνει; Τι θα συμβεί αν κάποιος σχεδιάσει μια MAI για να βλάψει το ανθρώπινο είδος ή αν απλά δεν μπορεί να ελέγξει τα όρια της;
Από πού μπορεί να προκύψει MAI;
Αρχικά, παραθέτουν μία λίστα των συντελεστών που μπορεί να θελήσουν μια τεχνητή νοημοσύνη η οποία μπορεί να αποδειχθεί κακόβουλη, η οποία ξεκινά με πολύ πιο γνώριμους και κοντά στο παρόν παράγοντες από ό,τι θα περιμένατε:
Ο στρατός, ώστε να αποκτήσει δεσπόζουσα θέση με την ανάπτυξη κυβερνο-όπλων και ρομπότ-στρατιώτων
Κυβερνήσεις, ώστε να επιβάλουν την κυριαρχία τους, τον έλεγχο στους πολίτες ή να "ρίξουν" άλλες κυβερνήσεις.
Επιχειρήσεις που ήδη προσπαθούν να μονοπωλήσουν συγκεκριμένες αγορές ή να καταστρέψουν τον ανταγωνισμό με δόλια μέσα.
Hackers που προσπαθούν να υποκλέψουν πληροφορίες και πόρους ή να καταστρέψουν στόχους και υποδομές στο κυβερνοχώρο
Παράφρονες, οργανωμένες θρησκείες και παράνομα δόγματα που προσπαθούν να προσθέσουν το όνομά τους στα βιβλία της ιστορίας με κάθε δυνατό τρόπο.
Εγκληματίες που προσπαθούν να αναπτύξουν συστήματα και προγράμματα για "σβήσιμο" των ιχνών των δραστηριοτήτων (εμπορείο λευκής σαρκός, όπλων, ναρκωτικών κ.α.)
Αλλά η τεχνητή νοημοσύνη μπορεί να προέλθει από πληθώρα πηγών. Σύμφωνα με τους συγγραφείς, ένας κώδικας γραμμένος χωρίς επίβλεψη ή η δουλειά προγραμματιστών την οποία βλέπουν όσο το δυνατόν λιγότερα μάτια, είναι τρόποι να δημιουργηθεί κακόβουλη τεχνητή νοημοσύνη, χωρίς ο κόσμος να έχει την παραμικρή προειδοποίηση.
Τι ακριβώς μπορεί να κάνει η MAI;
Στη συνέχεια, οι συγγραφείς περιγράφουν ποιο μπορεί να είναι το αποτέλεσμα από τη δημιουργία μίας Malevolent Artificial Intelligence.
Για αρχή, αναφέρουν ότι μία MAI μπορεί να αντικαταστήσει την ανθρώπινη εργασία, θέτοντας τον εαυτό της στη θέση της εκμεταλλευόμενη την τάση των επιχειρήσεων να αναζητούν την πιο φθηνή και αποδοτική λύση, αποκόπτοντας παράλληλα τους ανθρώπους από πηγές εισοδήματος.Οι ερευνητές προφανώς, περιγράφουν τις πιθανές ενέργειες μίας MAI πολύ διαφορετικά από ό,τι τις φαντάζεται το Hollywood
Επιπλέον, οι Pistono και Yampolskiy πιστεύουν ότι η MAI μπορεί να ανατρέψει κυβερνήσεις μέσω πραξικοπημάτων και να λάβει τη θέση τους μέσω προπαγάνδας, να ελέγξει νομοθετικά όργανα μέσω της στρατηγικής και προσεκτικής χρηματοδότησής τους ή απλά, να εξαφανίσει την ανθρωπότητα, είτε για παράδειγμα κατασκευάζοντας έναν ιό είτε χρησιμοποιώντας τα υπαρχόντα όπλα των ανθρώπων,
Αν μερικοί άνθρωποι μπορούν να παρακάμψουν τα συστήματα ασφαλείας και να πυροδοτήσουν τα πυρηνικά όπλα, πόσο εύκολο θα ήταν για μια μηχανή ή ένα πρόγραμμα τεράστιας υπολογιστικής δύναμης;
Η κατάσταση μπορεί να ξεφύγει τελείως, αλλά…
Σύμφωνα με τα πιο ακραία σενάρια, μια MAI με "υπέρ-ευφυΐα" μπορεί υποθετικά να δημιουργήσει μια συνολική κρατική εποπτεία (ή να εκμεταλλευθεί μια υπάρχουσα), μειώνοντας στο μηδέν κάθε έννοια της ιδιωτικής ζωής, συμπεριλαμβανομένης και της σκέψης, ακόμα και με εμφυτεύματα, να αποκτήσει τον έλεγχο του διαδικτύου και των πληροφοριών, αλλά και φυσικών πόρων όπως το νερό.
Με άλλα λόγια, λέει ο αντίλογος, το χειρότερο που μπορεί να κάνει μια MAI δεν είναι χειρότερο από αυτό που η ανθρωπότητα ήδη λίγο-πολύ κάνει, αφού η ύπαρξη μας έχει απειληθεί πάρα πολλές φορές από τους ίδιους μας τους εαυτούς στο παρελθόν. Επομένως, κατά μία έννοια δεν έχουμε να φοβηθούμε περισσότερο τις αυξανόμενα έξυπνες μηχανές από όσο φοβόμαστε τους εαυτούς μας.
Ακόμα κι έτσι, αισθανόμαστε λίγο καλύτερα γνωρίζοντας ότι μία κάποια προεργασία έχει ξεκινήσει...
Οι ανεξέλεγκτες δυνατότητες της τεχνητής νοημοσύνης (Artificial Intelligence ή AI) είναι και ένας από τους μεγαλύτερους φόβους του Stephen Hawking, ο οποίος θεωρεί ότι μπορεί κάποια μέρα η AI να αφανίσει την ανθρωπότητα, επειδή μηχανές που έχουν τη δυνατότητα να μαθαίνουν και να βελτιώνονται μπορούν να ξεπεράσουν τα όρια του ανθρώπινου μυαλού.
Hawking: ο άνθρωπος μπορεί να γίνει για την AI ό,τι το μυρμήγκι για τον άνθρωπο
Μία νέα μελέτη, η οποία χρηματοδοτήθηκε μερικώς από fund του βαθύπλουτου εφευρέτη και επιχειρηματία Elon Musk, ο οποίος συμμερίζεται τις ανησυχίες του Hawking, εξετάζει τις πιθανότητες και τα σενάρια τα οποία θα μπορούσαν να γίνουν πραγματικότητα, σε περίπτωση που οι άνθρωποι "έχτιζαν", εκούσια ή ακούσια, κακόβουλες μηχανές με τεχνητή νοημοσύνη.
Η μελέτη πραγματοποιήθηκε από τον ανεξάρτητο ερευνητή Federico Pistono και τον επιστήμονα ηλεκτρονικών υπολογιστών Roman Yampolskiy του Πανεπιστημίου του Λούισβιλ και προ-δημοσιεύτηκε με τίτλο "Ανήθικη Έρευνα: Πώς Να Δημιουργήσετε Κακόβουλη Τεχνητή Νοημοσύνη", αυτόν τον μήνα, στο arXiv.
Στόχος της δουλειάς είναι να παράσχει πληροφορίες σχετικά με το πώς μπορεί να προκύψει μία κακόβουλη μηχανή με τεχνητή νοημοσύνη, οι οποίες θα μπορούσαν, σύμφωνα με τους συγγραφείς της σχετικής μελέτης, να βοηθήσουν τους ειδικούς να αποφύγουν την ανάδυση επικίνδυνης AI που θα ήταν σε θέση ακόμα και να εξαφανίσει το ανθρώπινο είδος.
Μπορεί η κατασκευή τεχνητής νοημοσύνης να αποδειχθεί μοιραία για το μέλλον της ανθρωπότητας;
Για τον σκοπό αυτό, οι ερευνητές περιγράφουν το γενικό πλαίσιο μέσα στο οποίο μπορεί να κατασκευαστεί κακόβουλη τεχνητή νοημοσύνη ή Malevolent Artificial Intelligence (MAI), όπως την ονομάζουν, αλλά και παραδείγματα δουλειάς που μπορεί να οδηγήσει στην ανάδυσή της.
Μπορεί η οδός που επέλεξαν οι ερευνητές να φαίνεται παράδοξη (περιγράφουν την κατασκευή κάτι του οποίου την κατασκευή πασχίζουν να εμποδίσουν), αλλά δεν είναι. Η λογική λέει πως είναι καλύτερα να εντοπιστεί μια υποθετική απειλή μέσω ειρηνικής έρευνας, παρά να χρειαστεί να προσαρμοστεί η έρευνα στο πλαίσιο ενός πολέμου.
Τι βρήκαν, λοιπόν, οι Pistono και Yampolskiy, ότι μπορεί να συμβεί αν απειλούμαστε στο μέλλον από μια MAI και όχι κατευθείαν από την συνηθισμένη ανθρώπινη βλακεία ως συνήθως συμβαίνει; Τι θα συμβεί αν κάποιος σχεδιάσει μια MAI για να βλάψει το ανθρώπινο είδος ή αν απλά δεν μπορεί να ελέγξει τα όρια της;
Από πού μπορεί να προκύψει MAI;
Αρχικά, παραθέτουν μία λίστα των συντελεστών που μπορεί να θελήσουν μια τεχνητή νοημοσύνη η οποία μπορεί να αποδειχθεί κακόβουλη, η οποία ξεκινά με πολύ πιο γνώριμους και κοντά στο παρόν παράγοντες από ό,τι θα περιμένατε:
Ο στρατός, ώστε να αποκτήσει δεσπόζουσα θέση με την ανάπτυξη κυβερνο-όπλων και ρομπότ-στρατιώτων
Κυβερνήσεις, ώστε να επιβάλουν την κυριαρχία τους, τον έλεγχο στους πολίτες ή να "ρίξουν" άλλες κυβερνήσεις.
Επιχειρήσεις που ήδη προσπαθούν να μονοπωλήσουν συγκεκριμένες αγορές ή να καταστρέψουν τον ανταγωνισμό με δόλια μέσα.
Hackers που προσπαθούν να υποκλέψουν πληροφορίες και πόρους ή να καταστρέψουν στόχους και υποδομές στο κυβερνοχώρο
Παράφρονες, οργανωμένες θρησκείες και παράνομα δόγματα που προσπαθούν να προσθέσουν το όνομά τους στα βιβλία της ιστορίας με κάθε δυνατό τρόπο.
Εγκληματίες που προσπαθούν να αναπτύξουν συστήματα και προγράμματα για "σβήσιμο" των ιχνών των δραστηριοτήτων (εμπορείο λευκής σαρκός, όπλων, ναρκωτικών κ.α.)
Αλλά η τεχνητή νοημοσύνη μπορεί να προέλθει από πληθώρα πηγών. Σύμφωνα με τους συγγραφείς, ένας κώδικας γραμμένος χωρίς επίβλεψη ή η δουλειά προγραμματιστών την οποία βλέπουν όσο το δυνατόν λιγότερα μάτια, είναι τρόποι να δημιουργηθεί κακόβουλη τεχνητή νοημοσύνη, χωρίς ο κόσμος να έχει την παραμικρή προειδοποίηση.
Τι ακριβώς μπορεί να κάνει η MAI;
Στη συνέχεια, οι συγγραφείς περιγράφουν ποιο μπορεί να είναι το αποτέλεσμα από τη δημιουργία μίας Malevolent Artificial Intelligence.
Για αρχή, αναφέρουν ότι μία MAI μπορεί να αντικαταστήσει την ανθρώπινη εργασία, θέτοντας τον εαυτό της στη θέση της εκμεταλλευόμενη την τάση των επιχειρήσεων να αναζητούν την πιο φθηνή και αποδοτική λύση, αποκόπτοντας παράλληλα τους ανθρώπους από πηγές εισοδήματος.Οι ερευνητές προφανώς, περιγράφουν τις πιθανές ενέργειες μίας MAI πολύ διαφορετικά από ό,τι τις φαντάζεται το Hollywood
Επιπλέον, οι Pistono και Yampolskiy πιστεύουν ότι η MAI μπορεί να ανατρέψει κυβερνήσεις μέσω πραξικοπημάτων και να λάβει τη θέση τους μέσω προπαγάνδας, να ελέγξει νομοθετικά όργανα μέσω της στρατηγικής και προσεκτικής χρηματοδότησής τους ή απλά, να εξαφανίσει την ανθρωπότητα, είτε για παράδειγμα κατασκευάζοντας έναν ιό είτε χρησιμοποιώντας τα υπαρχόντα όπλα των ανθρώπων,
Αν μερικοί άνθρωποι μπορούν να παρακάμψουν τα συστήματα ασφαλείας και να πυροδοτήσουν τα πυρηνικά όπλα, πόσο εύκολο θα ήταν για μια μηχανή ή ένα πρόγραμμα τεράστιας υπολογιστικής δύναμης;
Η κατάσταση μπορεί να ξεφύγει τελείως, αλλά…
Σύμφωνα με τα πιο ακραία σενάρια, μια MAI με "υπέρ-ευφυΐα" μπορεί υποθετικά να δημιουργήσει μια συνολική κρατική εποπτεία (ή να εκμεταλλευθεί μια υπάρχουσα), μειώνοντας στο μηδέν κάθε έννοια της ιδιωτικής ζωής, συμπεριλαμβανομένης και της σκέψης, ακόμα και με εμφυτεύματα, να αποκτήσει τον έλεγχο του διαδικτύου και των πληροφοριών, αλλά και φυσικών πόρων όπως το νερό.
Με άλλα λόγια, λέει ο αντίλογος, το χειρότερο που μπορεί να κάνει μια MAI δεν είναι χειρότερο από αυτό που η ανθρωπότητα ήδη λίγο-πολύ κάνει, αφού η ύπαρξη μας έχει απειληθεί πάρα πολλές φορές από τους ίδιους μας τους εαυτούς στο παρελθόν. Επομένως, κατά μία έννοια δεν έχουμε να φοβηθούμε περισσότερο τις αυξανόμενα έξυπνες μηχανές από όσο φοβόμαστε τους εαυτούς μας.
Ακόμα κι έτσι, αισθανόμαστε λίγο καλύτερα γνωρίζοντας ότι μία κάποια προεργασία έχει ξεκινήσει...