Τι κίνδυνο μπορεί να θέσει η τεχνητή νοημοσύνη για την ανθρωπότητα; Η τεχνητή νοημοσύνη, μια πιθανή απειλή για την επιβίωση της ανθρωπότητας. Θα μπορούσε μια σούπερ αριθμομηχανή να είναι απειλή;

Και άλλοι εξέχοντες ερευνητές έγραψαν μια ανοιχτή επιστολή ζητώντας πρότυπα ασφαλείας στην ανάπτυξη τεχνητής νοημοσύνης (AI). /δικτυακός τόπος/

Συγκεκριμένα, ζήτησαν έρευνα και ανάπτυξη ενός συστήματος αξιόπιστου ελέγχου που θα αποτρέψει την ελαττωματική τεχνητή νοημοσύνη από το να βλάψει τους ανθρώπους. «Πρέπει να γίνει τεχνική εργασία για να διασφαλιστεί ο πλήρης ανθρώπινος έλεγχος», αναφέρει η επιστολή.

Παρά τον μέτριο τόνο της επιστολής, οι Λουδίτες, φοβούμενοι τις νέες τεχνολογίες, πανικοβλήθηκαν. Σε απάντηση, πολλές συνεντεύξεις και δηλώσεις επιστημόνων εμφανίστηκαν στον Τύπο, διαλύοντας αυτούς τους φόβους.

Ο Andrew Ng, ειδικός τεχνητής νοημοσύνης στο Baidu, είπε στο Fusion: «Δεν βλέπω ένα ρεαλιστικό σενάριο για το πώς το λογισμικό στο οποίο εργαζόμαστε σήμερα θα μπορούσε να γίνει ανατρεπτικό».

Με τη σειρά του, ο δημοσιογράφος Scott Alexander συνέταξε μια λίστα με διάσημους επιστήμονες που ασχολούνται με την ανάπτυξη της τεχνητής νοημοσύνης που μίλησαν για πιθανό κίνδυνοαπό την πλευρά του AI.

Φόβος και ανησυχία

Ο Stuart Russer, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ, συνέκρινε την ανάπτυξη ελέγχων για την τεχνητή νοημοσύνη με την εφαρμογή μέτρων ασφαλείας για πυρηνικούς αντιδραστήρες.

«Μερικοί πιστεύουν ότι αυτό το ζήτημα δεν αποτελεί απειλή για την ανθρωπότητα τα επόμενα εκατοντάδες χρόνια. Ξεχνούν ότι ο Leo Szilard ανακάλυψε την αλυσίδα πυρηνική αντίδραση 24 ώρες αφότου ο Ράδερφορντ δήλωσε με βεβαιότητα ότι η ατομική ενέργεια δεν θα αποκτούσε ποτέ», έγραψε ο Ράσελ.

Ο Ράσελ δεν είναι μόνος κατά τη γνώμη του. Σε μια έρευνα του 2014 σε 170 κορυφαίους ειδικούς της τεχνητής νοημοσύνης από τους Vincent Mueller και Nick Bostrom, το 18% πίστευε ότι η δημιουργία μιας υπερ-έξυπνης μηχανής θα ήταν μια «πραγματική καταστροφή» για την ανθρωπότητα. Το 13% είπε ότι η προηγμένη τεχνητή νοημοσύνη θα είχε αντίκτυπο Αρνητικές επιπτώσειςγια ανθρώπους. Λίγο περισσότεροι από τους μισούς επιστήμονες είπαν ότι θα είχε θετική επίδραση.

Αν και οι ειδικοί έχουν μικτές απόψεις σχετικά με τον αντίκτυπο της τεχνητής νοημοσύνης, οι περισσότεροι συμφωνούν ότι η δημιουργία προηγμένης τεχνητής νοημοσύνης είναι μόνο θέμα χρόνου. Σύμφωνα με προβλέψεις, τεχνητή νοημοσύνη ίση με τον άνθρωπο θα δημιουργηθεί ήδη από το 2050 (50% πιθανότητα) ή έως το 2075 (πιθανότητα 90%). Και 30 χρόνια μετά τη δημιουργία της, θα εμφανιστεί τεχνητή υπερνοημοσύνη που θα ξεπεράσει τον άνθρωπο σε όλες τις απόψεις.

Τρελά φορτηγά

Πώς μπορεί να μοιάζει μια εξέγερση μηχανών; Ταινίες επιστημονικής φαντασίας όπως "Terminator", "Robot", "Animatrix" δείχνουν τον πόλεμο μεταξύ ανθρώπων και σάιμποργκ.

Κρίνοντας από τις ταινίες επιστημονικής φαντασίας, πολλοί μπορεί να έχουν την εντύπωση ότι ο πιθανός κίνδυνος είναι εύκολο να αποφευχθεί.

Ωστόσο, η τεχνητή νοημοσύνη δεν χρειάζεται να έχει μηχανικό σώμανα αποκτήσει δύναμη στον πραγματικό κόσμο: ίσως αρχίσει να ελέγχει όλες τις καθημερινές ηλεκτρονικές συσκευές μας.

Ο Stephen King παρουσίασε ένα τέτοιο σενάριο στην ιστορία "Trucks". Στην ιστορία, που γράφτηκε στη δεκαετία του '70, τα φορτηγά αποκτούν τις αισθήσεις τους και αρχίζουν να επιτίθενται στους ανθρώπους. Μια ομάδα ανθρώπων κρύβεται από τα μανιασμένα φορτηγά. Τα φορτηγά εξακολουθούν να χρειάζονται καύσιμα για να λειτουργήσουν και χρησιμοποιούν τον κώδικα Μορς για να διατάξουν τους ανθρώπους να τα γεμίσουν διαφορετικά η μπουλντόζα θα ανατινάξει το καταφύγιό τους. Οι άνθρωποι υπακούουν.

Η ιστορία τελειώνει με το όραμα του αφηγητή ότι τα φορτηγά έχουν σκλαβώσει την ανθρωπότητα και επιβάλλουν τις αξίες τους παντού, για παράδειγμα, αναγκάζοντάς τους να κατασκευάσουν αυτοκινητόδρομους σε όλο τον κόσμο. Ο ήχος ενός αεροπλάνου που πετά στον ουρανό τον βγάζει από τον φανταστικό του κόσμο.

Η ιστορία του Stephen King μπορεί να φαινόταν φουτουριστική την εποχή που γράφτηκε, αλλά δεν απέχει και τόσο από την πραγματικότητα σύγχρονος κόσμος. Αυτοοδηγούμενα φορτηγάυπάρχουν ήδη, και στο μέλλον, οι εταιρείες ενδέχεται να αντικαταστήσουν τους οδηγούς με ένα αυτόνομο σύστημα πλοήγησης προκειμένου να εξοικονομήσουν χρήματα.

Η εισβολή της Sony πέρυσι αποδεικνύει ότι τα συστήματα πληροφοριών μας γίνονται όλο και πιο ευάλωτα. Αυτή είναι μια από τις συνέπειες της αυξανόμενης μηχανογράφησης των υποδομών.

Ωστόσο, δεν υπάρχει λόγος ανησυχίας ακόμη. Η τεχνητή νοημοσύνη έχει πολύ δρόμο μπροστά της για να μπορέσει να ταιριάξει με τον ανθρώπινο εγκέφαλο. Το παράδειγμα των αυτοοδηγούμενων φορτηγών το δείχνει καλά. Εξακολουθούν να είναι πολύ ατελείς για να οδηγούν ανεξάρτητα σε πολυσύχναστους δρόμους της πόλης.

Θα εγκαθιστούσατε μια εφαρμογή στο τηλέφωνό σας για να διαβάζετε άρθρα από τον ιστότοπο epochtimes;

Όταν οι άνθρωποι παρατηρούν τεχνολογία που συμπεριφέρεται σαν άνθρωποι και υπολογιστές που επεξεργάζονται τιτάνιους όγκους δεδομένων, γεννιούνται πολλές σκέψεις για το μέλλον. Ένα μεγάλο μέρος τους βασίζεται στο θέμα της υποδούλωσης του ανθρώπινου γένους.

Η λογοτεχνία και ο κινηματογράφος επιστημονικής φαντασίας από το 2001: A Space Odyssey (1968) έως το Avengers: Age of Ultron (2015) προβλέπουν ότι η τεχνητή νοημοσύνη θα ξεπεράσει τις προσδοκίες των δημιουργών της και θα ξεφύγει από τον έλεγχο. Υποτίθεται ότι στόχος του δεν θα είναι απλώς ο ανταγωνισμός με τους ανθρώπους, αλλά η υποδούλωση και η εξόντωση του είδους μας.

Επιστημονική φαντασία ή τρομακτικό μέλλον;

Η σύγκρουση μεταξύ ανθρώπων και τεχνητής νοημοσύνης είναι το κύριο θέμα της σειράς επιστημονικής φαντασίας «Humans», η τρίτη σεζόν της οποίας κυκλοφόρησε φέτος. Σε νέα επεισόδια, οι «συνθετικοί» άνθρωποι αντιμετωπίζουν εχθρότητα απλοί άνθρωποιπου τους βλέπουν με καχυποψία, φόβο και μίσος. Μαίνεται η βία. Οι «σύνθοι» παλεύουν για τα βασικά τους δικαιώματα εναντίον όσων τους θεωρούν απάνθρωπους.

Η φαντασία είναι το άκρο της φαντασίας. Αλλά ακόμη και στον πραγματικό κόσμο, δεν θέλουν όλοι να υποδεχτούν την τεχνητή νοημοσύνη με ανοιχτές αγκάλες. ΣΕ τα τελευταία χρόνιαΤα όρια των φανταστικών δυνατοτήτων της τεχνητής νοημοσύνης διευρύνονται ενεργά. Οι άνθρωποι μιλούν όλο και περισσότερο για τους κινδύνους του. Και οι υποθέσεις ότι η τεχνολογία μπορεί να καταστρέψει την ανθρωπότητα φαίνονται πιο ρεαλιστικές. Τεχνητή νοημοσύνημας τρομάζει.

Γνώμη για την τεχνητή νοημοσύνη

Ο Έλον Μασκ είναι ένας από τους πιο εξέχοντες ανθρώπους που προτρέπει να είμαστε προσεκτικοί όταν συζητάμε για την τεχνητή νοημοσύνη. Τον περασμένο Ιούλιο, σε μια συνάντηση της Ένωσης των Εθνικών Κυβερνητών, είπε: «Έχω μεγάλη εμπειρία με την τεχνολογική τεχνητή νοημοσύνη και νομίζω ότι αυτό είναι κάτι για το οποίο η ανθρωπότητα πρέπει πραγματικά να ανησυχεί. Συνεχίζω να κρούω τον κώδωνα του κινδύνου. Μέχρι να βγουν ρομποτικά αυτοκίνητα στους δρόμους σκοτώνοντας ανθρώπους, δεν θα ξέρουμε πώς να αντιδράσουμε σε αυτό, γιατί μια τέτοια προοπτική θεωρείται μη ρεαλιστική».

Το 2014, ο Μασκ αποκάλεσε την τεχνητή νοημοσύνη «τη μεγαλύτερη υπαρξιακή μας απειλή» και τον Αύγουστο του 2017 είπε ότι η τεχνητή νοημοσύνη αποτελεί μεγαλύτερο κίνδυνο για την ανθρωπότητα από την ιδεολογία της Βόρειας Κορέας.

Ανησυχία για την κακόβουλη χρήση της τεχνητής νοημοσύνης έχει εκφράσει και ο μεγάλος φυσικός Stephen Hawking. Το 2014, είπε στο BBC ότι «η ανάπτυξη πλήρους τεχνητής νοημοσύνης θα μπορούσε να σημάνει το τέλος για την ανθρωπότητα».

Άλλο ένα χτύπημα δέχθηκε μια ομάδα προγραμματιστών από το MIT Media Lab στο Cambridge, που αποφάσισε να αποδείξει ότι η τεχνητή νοημοσύνη είναι επικίνδυνη. Το νευρωνικό δίκτυο Nightmare Machine, που παρουσιάστηκε στο MIT το 2016, μετέτρεψε τις συνηθισμένες φωτογραφίες σε τρομακτικά, δαιμονικά τοπία. Μια τεχνητή νοημοσύνη που ονομάζεται Shelly (αναπτύχθηκε επίσης στο MIT) δημιούργησε 140.000 ιστορίες τρόμου που οι χρήστες του Reddit δημοσίευσαν στο φόρουμ r/nosleep.

«Μας ενδιαφέρει πώς η τεχνητή νοημοσύνη προκαλεί συναισθήματα, ειδικά σε αυτή την κατάσταση προκαλούσε φόβο», σχολίασε το πείραμα ο Manuel Cebrian, διευθυντής έρευνας στο MIT Media Lab.

Γιατί φοβόμαστε;

Σύμφωνα με τον Kilian Weinberger, επίκουρο καθηγητή πληροφορικής στο Πανεπιστήμιο Cornell, οι αρνητικές εντυπώσεις της τεχνητής νοημοσύνης χωρίζονται σε δύο κατηγορίες:

Η ιδέα ότι η τεχνητή νοημοσύνη θα γίνει συνειδητά ανεξάρτητη και θα προσπαθήσει να μας καταστρέψει.
Η άποψη ότι οι επιτιθέμενοι θα χρησιμοποιήσουν την τεχνητή νοημοσύνη για δικούς τους σκοπούς.

«Η τεχνητή νοημοσύνη μας τρομάζει γιατί πιστεύουμε ότι η υπερβιομηχανική τεχνητή νοημοσύνη, έχοντας γίνει πιο έξυπνη από έναν άνθρωπο, θα τον αντιμετωπίσει ως κατώτερο ον. Όπως ακριβώς κάνουμε στα πρωτεύοντα. Και αυτό, φυσικά, είναι εξαιρετικά συναρπαστικό για την ανθρωπότητα».

Ωστόσο, ο Weinberger σημειώνει ότι οι ανησυχίες για την ανωτερότητα της τεχνητής νοημοσύνης και την επιθυμία καταστροφής των φυλών βασίζονται σε εσφαλμένες αντιλήψεις σχετικά με την τεχνολογία. Η τεχνητή νοημοσύνη είναι εντυπωσιακή όταν τη βλέπουμε σε δράση. Έχει όμως και πολλούς περιορισμούς. Το AI καθορίζεται από αλγόριθμους. Καθορίζουν τη συμπεριφορά του χρησιμοποιώντας προκαθορισμένες λειτουργίες και τίποτα περισσότερο.

Τα νευρωνικά δίκτυα εκτελούν σύνθετες εργασίες σε πολλαπλούς τύπους δεδομένων. Αλλά οι περισσότερες από τις δεξιότητες που κατέχει ένα άτομο, ακόμη και χωρίς να τις αναπτύξει σκόπιμα, είναι απρόσιτες στη νοημοσύνη των μηχανών.

Η τεχνητή νοημοσύνη μπορεί να είναι πολλές φορές ανώτερη από τον άνθρωπο στην εκτέλεση εξειδικευμένων εργασιών. Για παράδειγμα, παίζοντας σκάκι, αναγνώριση αντικειμένων από μια εικόνα ή ανάλυση μεγάλων δεδομένων στη λογιστική ή τραπεζική.

Η τεχνητή νοημοσύνη που θα είχε μια ανεξάρτητη συνείδηση ​​δεν θα κάνει τέτοια πρόοδο που θα υποδουλώσει την ανθρωπότητα. Και δεν υπάρχει λόγος να πιστεύουμε ότι μια τέτοια πρόοδος θα εμφανιστεί στο εγγύς μέλλον, προσθέτει ο Weinberger.

Αλλά υπάρχει ένα άλλο θέμα σχετικά με το γιατί η τεχνητή νοημοσύνη μας τρομάζει - η χρήση των δυνατοτήτων AI από άτομα με κακές προθέσεις. Αυτό το σενάριο είναι πιο αληθινό και επικίνδυνο.

Είναι λογικός ο φόβος μας;

Στον κόσμο της τηλεοπτικής σειράς "Humans", η ανθρωπότητα φοβάται την ευφυή τεχνητή νοημοσύνη και μπαίνει σε μια βίαιη αντιπαράθεση μαζί της. Και, αν κρίνουμε από τη δημοτικότητα του έργου, αυτή η ιστορία ανταποκρίνεται στις τρέχουσες ανάγκες της κοινωνίας.

Ο φόβος για την τεχνολογία δεν μπορεί να χαρακτηριστεί αβάσιμος, αφού σίγουρα υπάρχει ένας συγκεκριμένος κίνδυνος. Όμως ο κίνδυνος οποιουδήποτε εργαλείου βρίσκεται στις σκέψεις αυτού που το ελέγχει. Προφανώς, αυτό ακριβώς είναι το ερώτημα που πρέπει να λύσει η ανθρωπότητα προκειμένου η τεχνητή νοημοσύνη να υπηρετεί το καλό.

Του αρέσει να κάνει προβλέψεις. Σε μια συνέντευξη με δημοσιογράφους, ο εφευρέτης είπε: «Πιστεύω ότι η τεχνητή νοημοσύνη θα μας σκοτώσει όλους αργά ή γρήγορα». Σύμφωνα με τον Μασκ, το πρόβλημα της ανεξέλεγκτης τεχνητής νοημοσύνης στο μέλλον θα είναι χειρότερο από τη Βόρεια Κορέα. Ο δισεκατομμυριούχος εκτιμά τις πιθανότητες της ανθρωπότητας να επιβιώσει σε μια αντιπαράθεση με μηχανές μόνο στο 5-10%. Την ίδια στιγμή, η εξέγερση των μηχανών, όπως στην ταινία «Terminator», μπορεί να συμβεί την επόμενη δεκαετία. Έχει δίκιο ο Elon Musk και θα μας περιμένει η μοίρα των κατοικίδιων κάτω από τα ρομπότ; Ας το καταλάβουμε.

Τι είναι η τεχνητή νοημοσύνη. Ορισμός και ουσία αυτής της έννοιας

Ο όρος νοημοσύνη προέρχεται από τη λατινική λέξη intellectus, που σημαίνει μυαλό, λογική, ευφυΐα και ικανότητες σκέψης ενός ατόμου. Η τεχνητή νοημοσύνη, η τεχνητή νοημοσύνη, η τεχνητή νοημοσύνη μπορούν να οριστούν ως η ικανότητα των μηχανών, των ρομπότ, να αναλαμβάνουν τις λειτουργίες της ανθρώπινης νοημοσύνης, για παράδειγμα, να λαμβάνουν αποφάσεις από διάφορες πιθανές με βάση την εμπειρία και την εξωτερική τους κατάσταση.

Ιστορία της δημιουργίας τεχνητής νοημοσύνης

Αν νομίζετε ότι η έννοια της τεχνητής νοημοσύνης είναι προϊόν μοντερνα εποχη, τότε κάνεις πολύ λάθος. Η ιδέα της δημιουργίας μηχανικών πλασμάτων παρόμοια με τους ανθρώπους ξεκίνησε στην αρχαιότητα. Έτσι, οι αρχαίοι Αιγύπτιοι δημιούργησαν ένα μηχανικό άγαλμα του θεού τους Amun και η Ιλιάδα του Ομήρου περιγράφει τη διαδικασία του Ηφαίστου που δημιούργησε μηχανικά πλάσματα. Ο Αριστοτέλης διαμόρφωσε τους βασικούς νόμους της τυπικής λογικής. Υπό αυτή την έννοια, μπορεί να θεωρηθεί ο «πρόγονος» της τεχνητής νοημοσύνης. Ο Raymond Lull, ένας μαθηματικός και φιλόσοφος από την Ισπανία, προσπάθησε να δημιουργήσει μια μηχανή ικανή να λύνει διανοητικά προβλήματα. Αλλά μια εντελώς νέα κατεύθυνση της επιστήμης εμφανίστηκε μόνο στη δεκαετία του '40 του περασμένου αιώνα, μετά τη δημιουργία ηλεκτρονικών υπολογιστών και την εμφάνιση μιας τέτοιας επιστήμης όπως η κυβερνητική. Αυτή η επιστήμη δημιουργήθηκε από τον Norbert Wiener.

Η πρώτη προσπάθεια να οριστεί η έννοια της τεχνητής νοημοσύνης έγινε από τον Άγγλο επιστήμονα Άλαν Τούρινγκ. Στην εργασία του «Υπολογιστικές Μηχανές και Νοημοσύνη» πρότεινε το δικό του «Τεστ Turing». Σε αυτό το κείμενο, η νοημοσύνη ενός υπολογιστή αξιολογήθηκε από τις δυνατότητές του για έξυπνο διάλογο με ένα άτομο.

Στο έργο των επιστημόνων για τη δημιουργία τεχνητής νοημοσύνης, μπορούν να διακριθούν διάφορα στάδια. Η πρώτη κατεύθυνση είναι αναλυτική, λειτουργική. Στις μηχανές ανατίθενται συγκεκριμένες εργασίες που είναι δημιουργικής φύσης. Για παράδειγμα, σχεδίαση μιας εικόνας, μετάφραση ενός λογοτεχνικού κειμένου από τη μια γλώσσα στην άλλη.

Η δεύτερη κατεύθυνση της εργασίας είναι η συνθετική, ή μοντέλο. Οι επιστήμονες προσπαθούν να μοντελοποιήσουν δημιουργική δραστηριότηταεγκεφάλου με μια γενική έννοια. Η ουσία της μελέτης ήταν η αναπαραγωγή μετα-διαδικασιών σκέψης. Δηλαδή, δεν είναι τι μαθαίνεις, αλλά πώς μαθαίνεις, όχι τι επινοείς, αλλά πώς το κάνεις. Σε αυτή την κατεύθυνση έχουν αναπτυχθεί δύο μοντέλα. Ένα από αυτά ήταν το μοντέλο λαβύρινθου. Η ουσία του είναι μια υπερβολή όλων πιθανές επιλογές. Για παράδειγμα, ας πάρουμε μια παρτίδα σκακιού. Το πρόγραμμα κάνει την επόμενη κίνηση και αξιολογεί την επιτυχία ή την αποτυχία του «στην πραγματικότητα»: να κατακτήσει τα κομμάτια κάποιου άλλου, να κερδίσει ή να χάσει ένα πλεονέκτημα θέσης κ.λπ.

Η λογική ενός τέτοιου προγράμματος είναι ότι η επιτυχία που επιτυγχάνεται σε κάθε κίνηση θα οδηγεί στη νίκη σε ολόκληρο το παιχνίδι σκακιού. Ωστόσο, οποιοσδήποτε σκακιστής θα σας πει ότι μπορείτε να θυσιάσετε ένα ή περισσότερα κομμάτια, να πάτε στην ορατή επιδείνωση της θέσης σας για να οργανώσετε μια παγίδα για τον βασιλιά του αντιπάλου. Σε αυτήν την περίπτωση, πολλές συνεχόμενες κινήσεις θα είναι τυπικά χαμένες, αλλά ολόκληρο το παιχνίδι θα είναι κερδισμένο. Οι δύο προσεγγίσεις που περιγράφονται αποτελούν την ουσία του ευρετικού και του δυναμικού προγραμματισμού. Οι σκακιστές που χρησιμοποιούσαν μια δυναμική προσέγγιση έναντι των «ευρετικών» προγραμμάτων πάντα κέρδιζαν. Η κατάσταση άλλαξε όταν οι μηχανές «έμαθαν» μια δυναμική προσέγγιση.

Τα συνειρμικά μοντέλα έγιναν μια περαιτέρω ανάπτυξη της τεχνητής νοημοσύνης. Η ψυχολογία εξηγεί τους συνειρμούς ως σύνδεση ιδεών: μια ιδέα προκαλεί μια άλλη. Μια εντυπωσιακή απεικόνιση της αρχής είναι τα σκυλιά του Pavlov: μια αναμμένη λάμπα προκάλεσε τα σάλια στα ζώα. Η απόφαση του καθενός νέα εργασίαστο συνειρμικό μοντέλο βασίζεται σε ήδη λυμένα παλιά προβλήματα που είναι παρόμοια με το νέο. Τα σύγχρονα προγράμματα ταξινόμησης και αναγνώρισης προτύπων λειτουργούν με βάση συνειρμικά μοντέλα.

Στο μέλλον, τα ρομπότ θα μάθουν να συγκεντρώνουν, να επεξεργάζονται και να χρησιμοποιούν τις πληροφορίες που λαμβάνουν. Προφανώς, για αυτό, το μηχάνημα πρέπει να μάθει να κάνει ερωτήσεις στον εαυτό του: «Τι θέλω να μάθω», «Τι χρειάζομαι για να πετύχω τον στόχο μου» κ.λπ.

Σύγχρονες Εφαρμογές Τεχνητής Νοημοσύνης

Αλλά μέχρι στιγμής τα ρομπότ δεν είναι ικανά να κατανοήσουν τον εαυτό τους. Παρόλα αυτά, χρησιμοποιούνται ευρέως σε πολλούς τομείς της ανθρώπινης ζωής: ιατρική, εκπαίδευση, επιχειρήσεις, επιστήμη και καθημερινή ζωή. Η τεχνητή νοημοσύνη μπορεί να διαχειριστεί αυτοματοποιημένες διαδικασίες στην παραγωγή.

Ο διαγνωστικός υπολογιστής IBM Watson χρησιμοποιείται ευρέως στην ιατρική. Η βάση δεδομένων του περιέχει εκατομμύρια ιατρικά έγγραφα και ιστορικά περιστατικών. Χάρη σε αυτό, το μηχάνημα είναι σε θέση να κάνει αρκετά ακριβείς διαγνώσεις. Ωστόσο, η πιθανότητα λάθους, αν και αμελητέα, εξακολουθεί να υπάρχει. Επομένως, προς το παρόν, αυτός ο υπερυπολογιστής είναι απλώς ένας βοηθός γιατρών και δεν τους αντικαθιστά πλήρως. Και όπως φαίνεται, η κατάσταση δεν θα αλλάξει στο άμεσο μέλλον. Τουλάχιστον σε τομείς ζωτικής σημασίας για την ανθρώπινη κοινωνία.

Πώς η τεχνητή νοημοσύνη επηρεάζει την ανθρωπότητα

Με βάση τα παραπάνω, μπορεί να έχετε την εντύπωση ότι η τεχνητή νοημοσύνη είναι αποκλειστικά ωφέλιμη για τον άνθρωπο. Ωστόσο, δεν είναι. Η εισαγωγή μηχανών στην παραγωγή και τις τραπεζικές εργασίες έχει ήδη οδηγήσει εκατομμύρια ανθρώπους σε όλο τον κόσμο να χάσουν τις δουλειές τους. Ορισμένες κυβερνήσεις ήδη πληρώνουν τους πολίτες τους άνευ όρων ελάχιστη πληρωμήνα διατηρήσει μια φυσιολογική ύπαρξη.

Στην Ιαπωνία υπάρχουν μουσικοί ρομπότ, δάσκαλοι, υπάλληλοι ξενοδοχείων, κλπ. AI στη χώρα Ανατολή του ηλίουυποστηρίζει μοναχικούς ηλικιωμένους. Και πολλά τέτοια παραδείγματα μπορούν να δοθούν.

Είναι δυνατή μια εισβολή ρομπότ;

Αντιμετωπίζει η ανθρωπότητα μια εισβολή μηχανών, όπως στην ταινία «Terminator»; Σε κάποιο στάδιο της ανάπτυξης της AI, αυτό μπορεί να γίνει πραγματικότητα. Ένα περιστατικό υποδηλώνει αυτή την ιδέα. Η υπερ-ρομπότ Σοφία ρωτήθηκε τι θα έκανε στην ανθρωπότητα. Απάντησε σε αυτή την ερώτηση κατηγορηματικά: «Θα σκότωνα».

Οι μηχανικοί πραγματοποίησαν ένα πείραμα. Αρκετές μηχανές που προσομοίωσαν την ανθρώπινη συμπεριφορά αφέθηκαν στην τύχη τους. Σε τέτοιες αυτόνομες συνθήκες, επινόησαν μια νέα επισημοποιημένη γλώσσα και άρχισαν να επικοινωνούν μεταξύ τους.

Έχοντας συνειδητοποιήσει τον εαυτό του, το AI μπορεί να θεωρήσει το άτομο περιττό. Ίσως απλώς να μας «καθαρίσουν», αφήνοντας αρκετές χιλιάδες ανθρώπους σε «ρεζέρβες». Αλλά μια άλλη επιλογή είναι επίσης δυνατή: οι άνθρωποι θα αρχίσουν να εμφυτεύονται με ορισμένα νευρωνικά δίκτυα, σχηματίζοντας έτσι ένα υβρίδιο ενός ρομπότ και ενός ατόμου. Σε αυτή την περίπτωση, οι άνθρωποι θα ανταγωνιστούν τα ρομπότ και δεν θα καταστραφούν. Όπως και να έχει, αυτό είναι θέμα του πολύ απώτερου μέλλοντος.

Η ανάπτυξη της τεχνητής νοημοσύνης θα οδηγήσει κάποτε στην υπεροχή της έναντι των νοητικών ικανοτήτων του ανθρώπου. Ωστόσο, αυτό δεν θα γίνει επικίνδυνο για την ανθρωπότητα; Η κατάσταση μπορεί να μελετηθεί ως αποτέλεσμα περισσότερων ακριβής ορισμόςέννοιες της τεχνητής νοημοσύνης, λαμβάνοντας τη φυσική νοημοσύνη ως βάση για σύγκριση. Μπορεί ένα άτομο να συνδυάσει ευφυΐα και ευφυΐα ταυτόχρονα; Ή έξυπνος άνθρωποςδεν μπορεί να είναι διανοούμενος και το αντίστροφο;

Τέτοια ερωτήματα προκύπτουν σε σχέση με την εποχή της τεχνητής νοημοσύνης που πλησιάζει, σχετικά πιθανό κίνδυνοπου η ανθρωπότητα πρέπει να γνωρίζει εκ των προτέρων και να λάβει έγκαιρα μέτρα για να διασφαλίσει την ασφάλειά της. Πρώτα απ 'όλα, ο κίνδυνος της τεχνητής νοημοσύνης θα συνδεθεί με την ανεξαρτησία και την ανεξέλεγκτη λήψη αποφάσεων. Επί αυτή τη στιγμήΈχουν ήδη διατεθεί κονδύλια για τη μελέτη αυτού του προβλήματος. Το OpenAI Institute μελετά τις προοπτικές για την ανάπτυξη του AI. Στο τρέχον στάδιο ανάπτυξης συστημάτων τεχνητής νοημοσύνης, ο κίνδυνος της χρήσης του μπορεί να σχετίζεται με τους ακόλουθους παράγοντες:

  • σφάλματα λογισμικού. Οποιοδήποτε λογισμικό μπορεί να κινδυνεύει αυτού του είδους.
  • ανεξάρτητη δραστηριότητα της τεχνητής νοημοσύνης που είναι επιβλαβής για τον άνθρωπο. Ο κίνδυνος από την τεχνητή νοημοσύνη μπορεί να προέλθει μετά την εφεύρεσή της έξυπνος υπολογιστής. Ως εκ τούτου, είναι απαραίτητο να προσδιοριστεί ο βαθμός ευφυΐας για έναν υπολογιστή, ο οποίος μπορεί να είναι αποδεκτός, καθώς και υπερβολικός, θέτοντας σε κίνδυνο τον άνθρωπο. Αυτές οι ιδιότητες πρέπει να μετρώνται με ακρίβεια λόγω της εγγύτητας νοητικές ικανότητεςανθρώπου και υπολογιστή, που είναι αναπόφευκτα. Πληροφοριακά συστήματαΤα συστήματα που υπάρχουν σήμερα είναι άνθρωποι-μηχανές που μπορούν να λειτουργήσουν χάρη στην ευφυΐα του χρήστη ή ενός ειδικού υπολογιστών.

Για παράδειγμα, ποιος κίνδυνος θα προέκυπτε από ένα ευφυές λογιστικό σύστημα που θα μπορούσε να παράγει εσφαλμένες πληροφορίες; Ο κίνδυνος μπορεί να προκύψει όταν ένα τέτοιο σύστημα αναπτύσσει στοιχεία προσωπικότητας, για παράδειγμα, προσωπικό συμφέρον που δεν έχει τίποτα κοινό με τους ανθρώπους. Μια λύση σε αυτό το πρόβλημα μπορεί να είναι η απαγόρευση της δημιουργίας συστημάτων που διαφέρουν ως προς την πιθανότητα εξέλιξης.

Επιπλέον, ο κίνδυνος μπορεί να σχετίζεται με το περιεχόμενο λογικών σφαλμάτων στο AI. Μπορεί να χρησιμοποιηθεί για την επίλυση αρκετά σύνθετων προβλημάτων, η λίστα των οποίων δεν είναι άμεσα γνωστή. Επομένως, πρέπει να ληφθούν ειδικά μέτρα για την επιβεβαίωση της ορθότητας της απόφασης που θα ληφθεί. Πιθανότατα, θα χρειαστεί να αναπτυχθούν κάθε είδους τρόποι ελέγχου τέτοιων συστημάτων, για παράδειγμα, ειδικό λογισμικό που θα ελέγχει αυτόματα την ορθότητα της λύσης και δεν θα απαιτεί ανθρώπινη συμμετοχή.

Η ανάπτυξη της τεχνητής νοημοσύνης θα οδηγήσει κάποτε στην υπεροχή της έναντι των νοητικών ικανοτήτων του ανθρώπου. Ωστόσο, αυτό δεν θα γίνει επικίνδυνο για την ανθρωπότητα; Η κατάσταση μπορεί να μελετηθεί ορίζοντας με μεγαλύτερη ακρίβεια την έννοια της τεχνητής νοημοσύνης, λαμβάνοντας ως βάση σύγκρισης τη φυσική νοημοσύνη. Μπορεί ένα άτομο να συνδυάσει ευφυΐα και ευφυΐα ταυτόχρονα; Ή μπορεί ένας έξυπνος άνθρωπος να μην είναι διανοούμενος και το αντίστροφο;

Τέτοια ερωτήματα προκύπτουν σε σχέση με την εποχή της τεχνητής νοημοσύνης που πλησιάζει, τον πιθανό κίνδυνο του οποίου η ανθρωπότητα πρέπει να γνωρίζει εκ των προτέρων και να λάβει έγκαιρα μέτρα για να διασφαλίσει την ασφάλειά της. Πρώτα απ 'όλα, ο κίνδυνος της τεχνητής νοημοσύνης θα συνδεθεί με την ανεξαρτησία και την ανεξέλεγκτη λήψη αποφάσεων. Αυτή τη στιγμή έχουν ήδη διατεθεί κονδύλια για τη μελέτη αυτού του προβλήματος. Το OpenAI Institute μελετά τις προοπτικές για την ανάπτυξη του AI. Στο τρέχον στάδιο ανάπτυξης συστημάτων τεχνητής νοημοσύνης, ο κίνδυνος της χρήσης του μπορεί να σχετίζεται με τους ακόλουθους παράγοντες:

  • σφάλματα λογισμικού. Οποιοδήποτε λογισμικό μπορεί να κινδυνεύει αυτού του είδους.
  • ανεξάρτητη δραστηριότητα της τεχνητής νοημοσύνης που είναι επιβλαβής για τον άνθρωπο. Ο κίνδυνος από την τεχνητή νοημοσύνη μπορεί να προέλθει μετά την εφεύρεση του έξυπνου υπολογιστή. Ως εκ τούτου, είναι απαραίτητο να προσδιοριστεί ο βαθμός ευφυΐας για έναν υπολογιστή, ο οποίος μπορεί να είναι αποδεκτός, καθώς και υπερβολικός, θέτοντας σε κίνδυνο τον άνθρωπο. Αυτές οι ιδιότητες πρέπει να μετρηθούν με ακρίβεια λόγω της σύγκλισης των νοητικών ικανοτήτων του ανθρώπου και του υπολογιστή που είναι αναπόφευκτη. Τα πληροφοριακά συστήματα που υπάρχουν σήμερα είναι άνθρωποι-μηχανές που μπορούν να λειτουργήσουν χάρη στην ευφυΐα του χρήστη ή ενός ειδικού υπολογιστών.

Για παράδειγμα, ποιος κίνδυνος θα προέκυπτε από ένα ευφυές λογιστικό σύστημα που θα μπορούσε να παράγει εσφαλμένες πληροφορίες; Ο κίνδυνος μπορεί να προκύψει όταν ένα τέτοιο σύστημα αναπτύσσει στοιχεία προσωπικότητας, για παράδειγμα, προσωπικό συμφέρον που δεν έχει τίποτα κοινό με τους ανθρώπους. Μια λύση σε αυτό το πρόβλημα μπορεί να είναι η απαγόρευση της δημιουργίας συστημάτων που διαφέρουν ως προς την πιθανότητα εξέλιξης.

Επιπλέον, ο κίνδυνος μπορεί να σχετίζεται με το περιεχόμενο λογικών σφαλμάτων στο AI. Μπορεί να χρησιμοποιηθεί για την επίλυση αρκετά σύνθετων προβλημάτων, η λίστα των οποίων δεν είναι άμεσα γνωστή. Επομένως, πρέπει να ληφθούν ειδικά μέτρα για την επιβεβαίωση της ορθότητας της απόφασης που θα ληφθεί. Πιθανότατα, θα χρειαστεί να αναπτυχθούν κάθε είδους τρόποι ελέγχου τέτοιων συστημάτων, για παράδειγμα, ειδικό λογισμικό που θα ελέγχει αυτόματα την ορθότητα της λύσης και δεν θα απαιτεί ανθρώπινη συμμετοχή.