Είναι η τεχνητή νοημοσύνη παγκόσμια απειλή;

Ο Έλον Μασκ με ανάρτηση του στο tweeter εξέφρασε τον φόβο του ότι ότι η τεχνητή νοημοσύνη (artificial intelligence – AI) είναι πιο επικίνδυνη από τη Βόρεια Κορέα, και ίσως είναι η αιτία της έναρξης ενός τρίτου Παγκοσμίου Πολέμου. Εν συνεχεία, ο συγγραφέας Στίβεν Φίνλεϊ εξέφρασε τις δικές του ανησυχίες επί του θέματος. Δύο απόψεις, ένας προβληματισμός. 



Έλον Μασκ: Έτσι θα ξεκινούσε ο Τρίτος Παγκόσμιος Πόλεμος

Σύμφωνα με τον επικεφαλής της Tesla, η τεχνητή νοημοσύνη συνιστά τη σοβαρότερη απειλή για την ανθρωπότητα.

Για μία ακόμη φορά, ο Έλον Μασκ, επικεφαλής των εταιρειών Tesla, Space X και Boring, προειδοποίησε ότι η τεχνητή νοημοσύνη συνιστά τη σοβαρότερη απειλή για την ανθρωπότητα. Όπως είπε, εξαιτίας της -και όχι του Κιμ της Βόρειας Κορέας- είναι πιθανότερο να ξεκινήσει ένας τρίτος παγκόσμιος πόλεμος.

Σε «τιτίβισμά» του στο Twitter έγραψε ότι, καθώς η Κίνα, η Ρωσία και άλλες χώρες αποκτούν ολοένα ισχυρότερες δυνατότητες στο πεδίο των υπολογιστών, «ο ανταγωνισμός για το ποιός θα έχει την πιο ισχυρή τεχνητή νοημοσύνη σε εθνικό επίπεδο, πιθανόατα θα προκαλέσει ένα τρίτο παγκόσμιο πόλεμο».

Το tweet αυτό έρχεται έπειτα από μια δήλωση του Ρώσου προέδρου Βλαδιμίρ Πούτιν ότι «η τεχνητή νοημοσύνη είναι το μέλλον, όχι μόνο για τη Ρωσία, αλλά για όλη την ανθρωπότητα. Έρχεται με κολοσσιαίες ευκαιρίες, αλλά επίσης με απειλές που είναι δύσκολα προβλέψιμες. Όποιος γίνει ο ηγέτης σε αυτή τη σφαίρα, θα γίνει ο κυρίαρχος του κόσμου».

Ο Ελόν Μασκ.

Ο Μασκ, σύμφωνα με τις βρετανικές Independent και Guardian, εμφανίσθηκε λιγότερο ανήσυχος για την πυρηνική απειλή της Βόρειας Κορέας, θεωρώντας ότι τυχόν πυρηνικό πλήγμα εκ μέρους του Κιμ Γιονγκ Ουν θα συνιστούσε «αυτοκτονία» για τη χώρα του. Η άποψη του είναι ότι η τεχνητή νοημοσύνη «είναι απείρως πιο επικίνδυνη» από τη χώρα του Κιμ.

Ο Aμερικανός επιχειρηματίας έχει εδώ και καιρό εκφράσει τις ανησυχίες του για την τεχνητή νοημοσύνη γενικότερα και για την ανάπτυξη «έξυπνων» και αυτόνομων οπλικών συστημάτων ειδικότερα. Ήταν ένας από τους 116 επωνύμους που συνυπέγραψαν ανοικτή επιστολή τον προηγούμενο μήνα, με την οποία ζητούσαν να απαγορευθούν από τον ΟΗΕ τα όπλα με τεχνητή νοημοσύνη.

«Μόλις αναπτυχθούν, τα φονικά αυτόνομα όπλα, θα επιτρέψουν την ένοπλη σύγκρουση σε κλίμακα μεγαλύτερη από ποτέ και σε κλίμακες χρόνου ταχύτερες από ό,τι μπορούν να κατανοήσουν οι άνθρωποι.

Θα είναι όπλα τρόμου, όπλα που χρησιμοποιούν οι τύραννοι και οι τρομοκράτες εναντίον αθώων πληθυσμών και όπλα που μπορούν να παραβιασθούν από χάκερ για να συμπεριφερθούν με ανεπιθύμητους τρόπους. Δεν έχουμε πολύ χρονικό περιθώριο για να δράσουμε. Μόλις ανοίξει το κουτί της Πανδώρας, θα είναι δύσκολο να κλείσει», προειδοποιεί η επιστολή.


Στίβεν Φίνλεϊ: Γιατί πρέπει να φοβόμαστε την τεχνητή νοημοσύνη

* Ο Στίβεν Φίνλεϊ είναι συγγραφέας του Artificial Intelligence and Machine Learning for Business: A No-Nonsense Guide to Data Driven Technologies.


Ο Έλον Μασκ ανέφερε πρόσφατα σε «τιτίβισμά» του ότι η τεχνητή νοημοσύνη (artificial intelligence – AI) είναι πιο επικίνδυνη από τη Βόρεια Κορέα.

Δεν είναι η πρώτη φορά που ο γνωστός επιχειρηματίας προειδοποιεί για τους κινδύνους της τεχνητής νοημοσύνης. Πρέπει να τη φοβόμαστε, όπως αυτός. Μπορεί η τεχνητή νοημοσύνη να οδηγήσει σε μια τεράστια καταστροφή ή σε μια ανταρσία των ρομπότ που θα καταστρέψει την ανθρωπότητα;

Ας είμαστε ξεκάθαροι: μια πυρηνική σύγκρουση μεταξύ Βόρειας Κορέας και ΗΠΑ θα οδηγήσει στο θάνατο εκατομμυρίων ανθρώπων. Βραχυπρόθεσμα, η τεχνητή νοημοσύνη αποκλείεται να προκαλέσει κάτι χειρότερο απ’ αυτό. Οι τεχνολογίες τεχνητής νοημοσύνης δεν είναι αρκετά ανεπτυγμένες ούτε έχουν ενσωματωθεί αρκετά στην κοινωνία μας για να συμβεί κάτι τέτοιο.

Αλλά μακροπρόθεσμα η προοπτική είναι λιγότερο ξεκάθαρη. Οι τεχνολογίες τεχνητής νοημοσύνης αναπτύσσονται ταχύτατα και μαζί τους αναπτύσσονται και οι κίνδυνοι που τις συνοδεύουν.

Η εφαρμογή της τεχνητής νοημοσύνης στον πόλεμο και την αστυνόμευση είναι οπωσδήποτε μια πηγή ανησυχίας. Αυτόνομα οπλισμένα ρομπότ που θα μπορούν να εντοπίζουν και να στοχεύουν συγκεκριμένα άτομα βάσει λογισμικού αναγνώρισης προσώπου δεν βρίσκονται και τόσο μακριά μας. Τέτοιες μηχανές, εάν αποκτήσουν αυτονομία έναντι του ανθρώπινου ελέγχου, θα μπορούσαν να συνεχίζουν να σκοτώνουν μέχρι να ξεμείνουν από πυρομαχικά.

Το πρόβλημα που δεν πρέπει να ξεχνάμε είναι ότι η τεχνητή νοημοσύνη δεν έχει κοινωνική ενσυναίσθηση ή συνείδηση ή αισθήματα οίκτου ή μεταμέλειας. Απλώς κάνει αυτό που έχει «εκπαιδευτεί» να κάνει.

Ο Στίβεν Φίνλεϊ.


Το «Σενάριο Terminator» είναι ένα πραγματικό ενδεχόμενο – το οποίο όμως μπορούμε εύκολα να αποτρέψουμε μέσω μέτρων σε επίπεδο νομοθεσίας αλλά και μέσα από το πώς σχεδιάζουμε τη νοημοσύνη των ρομπότ.

Η μεγάλη απειλή από την τεχνητή νοημοσύνη προέρχεται από την ανάπτυξη μηχανών που είναι καλύτερες στη λήψη αποφάσεων από τον ίδιο τον άνθρωπο. Η συνέπεια μιας τέτοιας εξέλιξης θα είναι να γίνουμε σκλάβοι των αυτοματοποιημένων φορέων λήψης αποφάσεων – και εκείνων που θα τους ελέγχουν.

Αυτό μπορεί να φαίνεται σαν ένα φουτουριστικό σενάριο, αλλά στην πραγματικότητα είναι μια διαδικασία που ήδη αρχίζει να εξελίσσεται. Συστήματα βασισμένα στην τεχνητή νοημοσύνη έχουν αρχίσει να αντικαθιστούν ή να υποβοηθούν τους ανθρώπους σε πολλές εξειδικευμένες δουλειές.

Ο λόγος; Η τεχνητή νοημοσύνη μπορεί να ερμηνεύσει καταστάσεις καλύτερα από τους ανθρώπους. Για παράδειγμα, τα μηχανήματα τεχνητής νοημοσύνης είναι καλύτερα στον εντοπισμό ενδείξεων καρκίνου σε μια τομογραφία απ’ ό,τι ο καλύτερος ακτινολόγος.

Πολλές από τις επιλογές μας στα κοινωνικά μέσα και στις ιστοσελίδες αγορών επηρεάζονται από την τεχνητή νοημοσύνη. Οι αλγόριθμοι καθορίζουν τι περιεχόμενο βλέπουμε στο News Feed μας και μας συστήνουν άτομα με τα οποία θα μπορούσαμε να βγούμε ραντεβού. Αν δεν μπορείτε να πάρετε δάνειο, είναι επειδή κάποιο σύστημα βασισμένο στην τεχνητή νοημοσύνη το αρνήθηκε. Πολλές εταιρείες χρησιμοποιούν τεχνητή νοημοσύνη για να αξιολογήσουν υποψήφιους για μια θέση εργασίας. Σε μερικές δεκαετίες, ίσως οι ζωές μας να ελέγχονται τόσο από την τεχνητή νοημοσύνη ώστε να μην μπορούμε να παρεκκλίνουμε από το δρόμο που θα έχει αποφασίσει και ορίσει η τεχνητή νοημοσύνη. Θα είμαστε σκλάβοι σ’ ένα μέλλον προκαθορισμένο από τις μηχανές.

Αυτό που καθιστά ένα τέτοιο σενάριο τόσο επικίνδυνο είναι ότι δεν έχει σχεδιαστεί από κάποια υπέρτερη δύναμη ευφυΐας κλπ. Εμείς οι ίδιοι δημιουργούμε την τεχνολογία που μπορεί να μας οδηγήσει στην καταστροφή. Κι αυτό καθιστά δύσκολο τον έλεγχο της τεχνητής νοημοσύνης ή την προστασία απ’ αυτήν.

Είτε έρθει τώρα, είτε σε μερικές δεκαετίες, η απειλή της τεχνητής νοημοσύνης είναι υπαρκτή.


Επιμελείται ο Μπίλης [Planitikos Team]

Πηγές: 1, 2

Advertisement

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου