Σε ένα δυσοίωνο σενάριο για την ανθρωπότητα αναφορικά με την εξέλιξη της Τεχνητής Νοημοσύνης αναφέρθηκε ο καθηγητής της επιστήμης των υπολογιστών Τζέφρι Χίντον, ένας από τους περίφημους «τρεις νονούς» της Α.Ι., που προειδοποιεί ότι ο ρυθμός των αλλαγών είναι «πολύ ταχύτερος» από ό,τι αναμενόταν.
Ο Βρετανοκαναδός επιστήμονας, ο οποίος τιμήθηκε φέτος με το Νόμπελ Φυσικής για την εργασία του σχετικά με την Τεχνητή Νοημοσύνη, εκτίμησε, σε δηλώσεις του, ότι υπάρχει μια πιθανότητα 10% έως 20% η AI να οδηγήσει σε εξαφάνιση του ανθρώπινου είδους μέσα στις επόμενες τρεις δεκαετίες.
Νωρίτερα μέσα το 2024, ο Χίντον είχε κάνει λόγο για πιθανότητα 10% να προκληθούν καταστροφικές συνέπειες για την ανθρωπότητα, λόγω της AI.
Σε συνέντευξή του στο πρόγραμμα Today του BBC Radio 4, ο Χίντον τόνισε ότι η ταχύτητα εξέλιξης της τεχνολογίας είναι «πολύ πιο γρήγορη» από ό,τι περίμενε. Όταν ρωτήθηκε αν έχει αναθεωρήσει τις εκτιμήσεις του, απάντησε: «Όχι ιδιαίτερα, 10% με 20%».
Ο πρώην υπουργός Οικονομικών, Σατζίντ Τζάβιντ, που φιλοξενούσε το πρόγραμμα, σχολίασε ότι οι πιθανότητες φαίνεται να αυξάνονται, με τον Χίντον να συμφωνεί: «Αν μη τι άλλο, ναι. Ποτέ δεν έχουμε χρειαστεί να διαχειριστούμε κάτι πιο έξυπνο από εμάς».
Απαντώντας σε σχόλιο δημοσιογράφου σχετικά με το ότι η ανανεωμένη πρόβλεψή του αυξάνει τις πιθανότητες καταστροφής, ο Χίντον σχολίασε πως «δεν είχαμε ποτέ στο παρελθόν να αντιμετωπίσουμε πράγματα πιο έξυπνα από εμάς».
«Πόσα παραδείγματα γνωρίζετε που κάτι εξυπνότερο ελέγχεται από κάτι λιγότερο έξυπνο; Υπάρχουν πολύ λίγα παραδείγματα», είπε χαρακτηριστικά. Πρόσθεσε πως οι άνθρωποι θα μοιάζουν με «νήπια», σε σχέση με την υψηλή ευφυΐα των συστημάτων τεχνητής νοημοσύνης.
«Μου αρέσει να το σκέφτομαι ως εξής: Φανταστείτε τον εαυτό σας και ένα τρίχρονο παιδί. Εμείς θα είμαστε τα τρίχρονα», επισήμανε. Αναλογιζόμενος τα όρια στην ανάπτυξη της τεχνητής νοημοσύνης όταν ξεκίνησε το επιστημονικό έργο του, ο Χίντον ανέφερε: «Δεν πίστευα ότι θα φτάναμε εδώ που είμαστε τώρα. Πίστευα ότι θα γινόταν κάποια στιγμή στο μέλλον».
«Η ανησυχία μου είναι ότι το “αόρατο χέρι” δεν πρόκειται να μας κρατήσει ασφαλείς. Το να αφεθούμε απλώς στα κίνητρα των μεγάλων εταιρειών δεν θα είναι αρκετό για να διασφαλίσουμε ότι η ανάπτυξη θα έχει ως επίκεντρο την ασφάλεια», σημείωσε επίσης.
«Το μόνο που μπορεί να αναγκάσει αυτές τις μεγάλες εταιρείες να κάνουν περισσότερη έρευνα για την ασφάλεια είναι κυβερνητικές ρυθμίσεις».
Ο Χίντον προκάλεσε παγκόσμιο ενδιαφέρον πέρυσι όταν παραιτήθηκε από τη θέση του στην Google για να μιλήσει πιο ανοιχτά για τους κινδύνους της ανεξέλεγκτης ανάπτυξης της ΑΙ. Έκτοτε, εξέφρασε έντονες ανησυχίες για τη χρήση της τεχνολογίας από «κακόβουλους παράγοντες» και τη δυνατότητα συστημάτων γενικής τεχνητής νοημοσύνης να ξεφύγουν από τον ανθρώπινο έλεγχο, αποτελώντας υπαρξιακή απειλή.
Παρά τις ανησυχίες του Χίντον, άλλοι ειδικοί, όπως ο Γιαν ΛεΚουν, επικεφαλής επιστήμονας ΑΙ στη Meta, έχουν διαφορετική άποψη. Ο ΛεΚουν δήλωσε ότι η ΑΙ «μπορεί στην πραγματικότητα να σώσει την ανθρωπότητα από την εξαφάνιση», μειώνοντας την ανησυχία για τις υπαρξιακές απειλές.
Πηγή: The Guardian – Kathimerini.gr