Γιατί η τεχνητή νοημοσύνη μας τρομάζει

Γιατί η τεχνητή νοημοσύνη μας τρομάζει

Όταν οι άνθρωποι παρατηρούν μια τεχνική που συμπεριφέρεται σαν ένα άτομο και υπολογιστές που επεξεργάζονται όγκους τιτανικών δεδομένων, προκύπτουν πολλές σκέψεις για το μέλλον. Ένα αξιοπρεπές μέρος αυτών βασίζεται στο θέμα της δουλείας της ανθρώπινης φυλής.

Επιστημονική λογοτεχνία και κινηματογράφος από το 2001: The Space Odyssey (1968) to Avengers: Age of Ultron (2015) προβλέπουν ότι η τεχνητή νοημοσύνη θα υπερβεί τις προσδοκίες των δημιουργών και θα ξεφύγει από τον έλεγχο. Σύμφωνα με ισχυρισμούς, ο στόχος του δεν θα είναι απλώς ο ανταγωνισμός με τον άνθρωπο, αλλά η υποδούλωση και η εξόντωση των ειδών μας.

Επιστημονική φαντασία ή τρομακτικό μέλλον?

η τεχνητή νοημοσύνη μας τρομάζει

Η σύγκρουση μεταξύ ανθρώπων και τεχνητής νοημοσύνης είναι το κύριο θέμα της σειράς επιστημονικής φαντασίας “People”, η τρίτη σεζόν της οποίας κυκλοφόρησε φέτος. Στα νέα επεισόδια, οι «συνθετικοί» άνθρωποι αντιμετωπίζουν την εχθρότητα των απλών ανθρώπων που είναι ύποπτοι, φοβούνται και μισούν απέναντί ​​τους. Η βία μαίνεται. Ο Σίντι αγωνίζεται για τα θεμελιώδη δικαιώματά του εναντίον εκείνων που τους θεωρούν απάνθρωπους.
Η φαντασία είναι ένα άκρο φαντασίας. Αλλά στον πραγματικό κόσμο, δεν θέλουν όλοι να συναντήσουν το AI με ανοιχτές αγκάλες. Τα τελευταία χρόνια, τα όρια των φανταστικών ικανοτήτων της τεχνητής νοημοσύνης ωθούν ενεργά. Οι άνθρωποι μιλούν όλο και περισσότερο για τον κίνδυνο. Και η υπόθεση ότι η τεχνολογία είναι ικανή να κάνει την ανθρωπότητα φαίνεται πιο πραγματική. Η τεχνητή νοημοσύνη μας τρομάζει.

Γνώμη τεχνητής νοημοσύνης

Ο Elon Musk είναι ένας από τους πιο ορατούς ανθρώπους που απαιτούν προσοχή όταν συζητούν την AI. Σε μια συνάντηση της Εθνικής Ένωσης Διοικητών τον περασμένο Ιούλιο, είπε: «Έχω εκτεταμένη εμπειρία να δουλεύω με την τεχνολογία υψηλής τεχνολογίας και πιστεύω ότι η ανθρωπότητα πρέπει πραγματικά να ανησυχεί για αυτό. Συνεχίζω να δίνω συναγερμό. Μέχρι τα ρομποτικά αυτοκίνητα να βγουν στους δρόμους, καταστρέφοντας ανθρώπους, δεν καταλαβαίνουμε πώς να αντιδράσουμε σε αυτό, γιατί μια τέτοια προοπτική θεωρείται μη ρεαλιστική ».

Το 2014, ο Musk χαρακτήρισε την τεχνητή νοημοσύνη «τη μεγαλύτερη υπαρξιακή μας απειλή» και τον Αύγουστο του 2017 δήλωσε ότι η τεχνητή νοημοσύνη ενέχει μεγαλύτερο κίνδυνο για την ανθρωπότητα από την ιδεολογία της Βόρειας Κορέας..

Ο μεγαλύτερος φυσικός Stephen Hawking εξέφρασε επίσης ανησυχία για την κακόβουλη χρήση της τεχνητής νοημοσύνης. Το 2014, είπε στο BBC ότι «η ανάπτυξη της πλήρους τεχνητής νοημοσύνης μπορεί να αποτελέσει στοιχείο του τέλους για την ανθρωπότητα».

Ένα άλλο πλήγμα προκλήθηκε από μια ομάδα προγραμματιστών στο MIT Media Lab στο Cambridge, η οποία αποφάσισε να αποδείξει ότι η AI ήταν επικίνδυνη. Το νευρικό δίκτυο Nightmare Machine, που παρουσιάστηκε στο MIT το 2016, μετέτρεψε τις συνηθισμένες φωτογραφίες σε φρικτά δαιμονικά τοπία. Η τεχνητή νοημοσύνη που ονομάζεται Shelly (αναπτύχθηκε επίσης στο MIT) συνέθεσε 140.000 ιστορίες τρόμου που οι χρήστες του Reddit δημοσίευσαν στο r / nosleep.

«Ενδιαφερόμαστε για το πώς η τεχνητή νοημοσύνη προκαλεί συναισθήματα, ειδικά σε αυτήν την κατάσταση, προκάλεσε φόβο», σχολίασε το πείραμα Manuel Sebrian, διευθυντής έρευνας στο MIT Media Lab.

Γιατί φοβόμαστε?

η τεχνητή νοημοσύνη μας τρομάζει

Σύμφωνα με τον Kilian Weinberger, επίκουρο καθηγητή επιστήμης υπολογιστών στο Πανεπιστήμιο Cornell, οι αρνητικές εντυπώσεις της τεχνητής νοημοσύνης εμπίπτουν σε δύο κατηγορίες:

• Η ιδέα ότι η AI θα γίνει συνειδητά ανεξάρτητη και θα προσπαθήσει να μας καταστρέψει.
• Η άποψη ότι οι εισβολείς θα χρησιμοποιήσουν το AI για τους δικούς τους σκοπούς.

«Η τεχνητή νοημοσύνη μας τρομάζει, επειδή πιστεύουμε ότι μια υπερ-βιομηχανική τεχνητή νοημοσύνη, που γίνεται πιο έξυπνη από ένα άτομο, θα την αντιμετωπίζει ως κατώτερο ον. Ακριβώς όπως είμαστε σε πρωτεύοντες. Και αυτό, φυσικά, είναι εξαιρετικά συναρπαστικό για την ανθρωπότητα. “.

Ωστόσο, ο Weinberger σημειώνει ότι οι ανησυχίες σχετικά με την υπεροχή και την επιθυμία της AI να καταστρέψει τον αγώνα βασίζονται σε παρανοήσεις σχετικά με αυτήν την τεχνολογία. Η τεχνητή νοημοσύνη είναι εντυπωσιακή όταν την βλέπουμε σε δράση. Αλλά έχει πολλούς περιορισμούς. Το AI καθορίζεται από αλγόριθμους. Καθορίζουν τη συμπεριφορά της χρησιμοποιώντας καθορισμένες λειτουργίες και τίποτα περισσότερο..

Τα νευρικά δίκτυα εκτελούν πολύπλοκες εργασίες με διάφορους τύπους δεδομένων. Αλλά οι περισσότερες από τις δεξιότητες που διαθέτει ένα άτομο, χωρίς καν να τις αναπτύξουν σκόπιμα, δεν είναι προσβάσιμες στη νοημοσύνη των μηχανών.

Η τεχνητή νοημοσύνη μπορεί να ξεπεράσει τον άνθρωπο πολλές φορές στην εκτέλεση εξειδικευμένης εργασίας. Για παράδειγμα, ένα παιχνίδι σκακιού, ταυτοποίηση αντικειμένων με εικόνα ή μια μεγάλη ανάλυση δεδομένων στη λογιστική ή την τραπεζική.

Μια AI που έχει μια ανεξάρτητη συνείδηση ​​δεν θα έχει τέτοια πρόοδο που θα υποδουλώσει την ανθρωπότητα. Και δεν υπάρχει λόγος να πιστεύουμε ότι τέτοια πρόοδος θα εμφανιστεί στο εγγύς μέλλον – προσθέτει ο Weinberger.

Αλλά υπάρχει ένα άλλο θέμα σχετικά με το γιατί η τεχνητή νοημοσύνη μας φοβίζει – η χρήση των δυνατοτήτων τεχνητής νοημοσύνης από άτομα με κακές προθέσεις. Αυτό το σενάριο είναι πιο πραγματικό και επικίνδυνο..

Είναι λογικός ο φόβος μας;?

η τεχνητή νοημοσύνη μας τρομάζει

Στον κόσμο της τηλεοπτικής σειράς “Άνθρωποι”, η ανθρωπότητα φοβάται τη λογική τεχνητή νοημοσύνη και μπαίνει σε μια σκληρή αντιπαράθεση με αυτήν. Και, κρίνοντας από τη δημοτικότητα του έργου, αυτή η πλοκή απαντά στο τρέχον αίτημα της κοινωνίας.

Ο φόβος της τεχνολογίας δεν μπορεί να χαρακτηριστεί παράλογος, αφού φυσικά υπάρχει κάποιος κίνδυνος. Αλλά ο κίνδυνος οποιουδήποτε εργαλείου έγκειται στις σκέψεις εκείνου που το ελέγχει. Προφανώς, αυτό είναι το ερώτημα που πρέπει να λύσει η ανθρωπότητα για να εξυπηρετήσει το καλό η τεχνητή νοημοσύνη..

Παρόμοιες εγγραφές:
  1. Υποσχόμενο και χρήσιμο blockchain εκκίνησης – TOP-6
Παρόμοια άρθρα
Βαθμολογήστε το άρθρο
( No ratings yet )
Κοινοποίηση σε φίλους
Συμβουλές για οποιοδήποτε θέμα από ειδικούς
Πρόσθεσε ένα σχόλιο

Κάνοντας κλικ στο κουμπί "Υποβολή σχολίου", αποδέχομαι την επεξεργασία προσωπικών δεδομένων και αποδέχομαι την πολιτική απορρήτου