Ο "νονός" της Τεχνητής Νοημοσύνης βλέπει 10%-20% πιθανότητες η IT να αφανίσει την ανθρωπότητα μέσα σε 30 χρόνια
Ο Βρετανο-Καναδός επιστήμονας Τζέφρι Χίντον που συχνά αναφέρεται ως "νονός" της τεχνητής νοημοσύνης δίνει 10% ως 20% πιθανότητες η τεχνητή νοημοσύνη να εξαφανίσει την ανθρωπότητα μέσα στις επόμενες τρεις δεκαετίες, προειδοποιώντας ότι ο ρυθμός των τεχνολογικών αλλαγών είναι "πολύ ταχύτερος" από τον αναμενόμενο.
Σε παλαιότερη περίοδο ο Τζ. Χίντον είχε πει ότι έβλεπε 10% πιθανότητες η τεχνολογία να οδηγήσει σε μια μεγάλη καταστροφή για την ανθρωπότητα.
Μιλώντας στην εκπομπή Today του BBC Radio 4 ο καθηγητής Τζ. Χίντον, που τιμήθηκε φέτος με το βραβείο Νόμπελ φυσικής για το έργο του στην τεχνητή νοημοσύνη, ρωτήθηκε αν έχει αλλάξει την ανάλυσή του για την 1 στις 10 πιθανότητες που έδινε παλαιότερα να προκληθεί μια μεγάλη καταστροφή από την τεχνητή νοημοσύνη και είπε: "Όχι πραγματικά, βλέπω 10% έως 20% πιθανότητες".
Κι όταν ο έτερος καλεσμένος της εκπομπής που φιλοξενούσε τον Χίντον, σχολίασε "βλέπω αυξάνεις τις πιθανότητες", ο Χίντον απάντησε: "Να, αν μη τι άλλο. Βλέπετε, ποτέ δεν χρειάστηκε να αντιμετωπίσουμε όντα πιο έξυπνα από εμάς" και συνέχισε.
"Πόσα παραδείγματα γνωρίζετε για ένα πιο έξυπνο ον που ελέγχεται από ένα λιγότερο έξυπνο ον; Υπάρχουν πολύ λίγα παραδείγματα. Υπάρχει η μητέρα και το μωρό. Η εξέλιξη έκανε πολλή δουλειά για να επιτρέψει στο μωρό να ελέγχει τη μητέρα, αλλά αυτό είναι το μόνο παράδειγμα που γνωρίζω".
Ο γεννημένος στο Λονδίνο Τζέφρι Χίντον και ομότιμος καθηγητής στο Πανεπιστήμιο του Τορόντο, είπε ότι οι άνθρωποι θα ήταν σαν νήπια σε σύγκριση με τα ισχυρά συστήματα τεχνητής νοημοσύνης.
"Μου αρέσει να το σκέφτομαι ως εξής: φανταστείτε τον εαυτό σας και ένα τρίχρονο παιδί. Εμείς θα είμαστε τα τρίχρονα", είπε.
Πέρυσι, ο Τζέφρι Χίντον έγινε πρωτοσέλιδο μετά την απόφασή του να παραιτηθεί από την Google για να μιλήσει ανοιχτά για τους κινδύνους που ενέχει η απεριόριστη ανάπτυξη της τεχνητής νοημοσύνης, δηλώνοντας ότι ανησυχεί επειδή "κακόβουλοι παράγοντες" μπορούν να χρησιμοποιήσουν την τεχνολογία για να βλάψουν άλλους. Ένα βασικό μέλημα των ακτιβιστών για την ασφάλεια της τεχνητής νοημοσύνης είναι ότι η δημιουργία τεχνητής γενικής νοημοσύνης, ή συστημάτων που είναι πιο έξυπνα από τους ανθρώπους, θα μπορούσαν να μετατρέψουν την τεχνολογία σε απειλή, θέτοντάς την εκτός ανθρώπινου ελέγχου.
Όταν ρωτήθηκε ως προς το πού πίστευε ότι θα είχε φτάσει η ανάπτυξη της τεχνητής νοημοσύνης όταν ξεκίνησε για πρώτη φορά να εργάζεται στον κλάδο, ο Χίντον είπε: "Δεν πίστευα ότι θα είχαμε βρεθεί εδώ που είμαστε τώρα. Σκεφτόμουν ότι κάποια στιγμή στο μέλλον θα φτάναμε εδώ". Και πρόσθεσε: "Σήμερα οι περισσότεροι ειδικοί στον τομέα πιστεύουν ότι κάποια στιγμή, πιθανώς μέσα στα επόμενα 20 χρόνια, θα αναπτύξουμε συστήματα AI που θα είναι πιο έξυπνα από τους ανθρώπους. Και αυτή είναι μια πολύ τρομακτική σκέψη".
Ο Χίντον είπε ότι ο ρυθμός ανάπτυξης της τεχνητής νοημοσύνης ήταν "πολύ, πολύ γρήγορος, πολύ πιο γρήγορος από ό,τι περίμενα" και ζήτησε την κρατική ρύθμιση της IT.
"Η ανησυχία μου είναι ότι το αόρατο χέρι δεν πρόκειται να μας κρατήσει ασφαλείς. Επομένως, το να τα αφήσουμε όλα στο κίνητρο του κέρδους των μεγάλων εταιρειών δεν αρκεί για να διασφαλίσουμε ότι θα την αναπτύξουν με ασφάλεια", είπε. "Το μόνο πράγμα που μπορεί να αναγκάσει τις μεγάλες εταιρείες να κάνουν περισσότερη έρευνα για την ασφάλεια είναι η κυβερνητική ρύθμιση".
Ο Χίντον είναι ένας από τους τρεις "νονούς της τεχνητής νοημοσύνης" που έχουν κερδίσει το βραβείο ACM AM Turing –το αντίστοιχο του βραβείου Νόμπελ στην επιστήμη των υπολογιστών– για τη δουλειά τους. Ωστόσο, ένας από τους τρεις, ο Yann LeCun, ο επικεφαλής επιστήμονας AI στο Meta του Μαρκ Ζάκερμπεργκ, υποβάθμισε την απειλή και είπε ότι η τεχνητή νοημοσύνη "θα μπορούσε πραγματικά να σώσει την ανθρωπότητα από την εξαφάνιση".
Με πληροφορίες από Guardian
Σχόλια
Δημοσίευση σχολίου
Οι απόψεις των διαχειριστών μπορεί να μην συμπίπτουν με τα άρθρα.
Ο καθένας έχει δικαίωμα να εκφράζει ελεύθερα τις απόψεις του.
Αυτό δεν σημαίνει ότι υιοθετούμε τις απόψεις αυτές.
Κακόβουλα σχόλια αφαιρούνται όπου εντοπίζονται.
Η ευθύνη των σχολίων βαρύνει νομικά τους σχολιαστές.
Η ταυτότητα των σχολιαστών είναι γνωστή μόνο στην Google.
Όποιος θίγεται μπορεί να επικοινωνεί στο email μας.
Ενδιαφέροντα σχόλια σε όλα τα μέσα μας μπορεί να γίνουν αναρτήσεις.
Περισσότερα στους όρους χρήσης.