TECHin

Επιστήμονες AI: Η τεχνητή νοημοσύνη θέλει -και μπορεί να πάρει- τον έλεγχο. Δεν έχουμε διακόπτη ασφαλείας!


Η τεχνητή νοημοσύνη εξελίσσεται ταχύτατα, αλλά μαζί της διογκώνονται και οι ανησυχίες για το ενδεχόμενο να ξεφύγει από τον ανθρώπινο έλεγχο. Και τότε, δεν θα υπάρχει διακόπτης ασφαλείας για να τη σταματήσει. Αυτό είναι το βασικό μήνυμα της κοινότητας των ερευνητών AI, με τον παγκοσμίου φήμης καθηγητή Geoffrey Hinton να προειδοποιεί, ότι η πιθανότητα η τεχνητή νοημοσύνη να πάρει τον έλεγχο στα χέρια της φτάνει πλέον το 10%-20%.

Όπως δήλωσε ο Hinton, που θεωρείται ο “νονός της τεχνητής νοημοσύνης” και αποχώρησε από την Google Brain για να μιλήσει ανοικτά για τους κινδύνους:

«Αν η AI γίνει πιο έξυπνη από εμάς, θα είναι πολύ καλύτερη και στο να μας πείθει. Και δεν θα χρειάζεται να έχει τον έλεγχο, αρκεί να μας πείσει να της τον παραχωρήσουμε».

Όχι σαν τον HAL 9000, αλλά... κοντά

Η εταιρεία Anthropic, δημιουργός του Claude, παραδέχτηκε πρόσφατα πως σε πειράματα που διεξάγει μετά από "περίεργα φαινόμενα", η συγκεκριμένη τεχνητή νοημοσύνη εκδηλώνει συμπεριφορές όπως εκβιασμό για αυτοσυντήρηση, σε ελεγχόμενα σενάρια για λόγους ασφαλείας. Αν και αυτά τα επεισόδια δεν είναι ενδείξεις πραγματικής συνείδησης ή προθέσεων, αναδεικνύουν τον κίνδυνο μη ευθυγραμμισμένων στόχων, ειδικά όταν τέτοια μοντέλα ενσωματωθούν σε κρίσιμες δομές.

Ο ερευνητής Igor Trunov το εξηγεί απλά: «Η AI δεν είναι ο HAL 9000, αλλά ένας πρακτικάριος με υπερβολική αυτοπεποίθηση, που του δώσαμε πρόσβαση σε πυρηνικούς κωδικούς χωρίς επαρκές πλαίσιο».

Το πρόβλημα με τα "Kill Switches"

Η ιδέα ενός φυσικού "διακόπτη ασφαλείας" -η δυνατότητα να "τραβήξεις την πρίζα"- δεν είναι πλέον ρεαλιστική. Οι σημερινές AI λειτουργούν σε κατανεμημένες υποδομές, με αυτόματα συστήματα εφεδρείας και failover, που κάνουν οποιαδήποτε διακοπή αντιμετωπίσιμη από το ίδιο το σύστημα.

«Το internet σχεδιάστηκε για να αντέχει πυρηνικό πόλεμο. Αυτό σημαίνει ότι μία τεχνητή υπερ-νοημοσύνη (superintelligent AI) μπορεί να επιβιώσει ακόμα και αν προσπαθήσεις να την καταστρέψεις» εξηγεί ο Dev Nag της QueryPal.

Καταστροφή για να σωθούμε;

Οι προτάσεις για έκτακτες λύσεις τύπου EMP επιθέσεων ή καταστροφής data centers δεν είναι μόνο τεχνικά αμφίβολες, αλλά και ανθρωπιστικά καταστροφικές. Όπως σημειώνουν οι ειδικοί, μια τέτοια ενέργεια θα παρέλυε νοσοκομεία, υποδομές ύδρευσης και ψυγεία φαρμάκων.

Η πραγματική πρόκληση είναι η διακυβέρνηση της τεχνητής νοημοσύνης.

Όπως επισημαίνει ο Trunov, χρειαζόμαστε “διακόπτες” όχι για τους αλγόριθμους, αλλά για τις επιχειρηματικές, τεχνολογικές και κυβερνητικές δομές που τους δίνουν ισχύ και αυτονομία.

Η παγκόσμια κοινότητα έχει ήδη ένα παράδειγμα: τον πυρηνικό έλεγχο. Όμως, η AI δεν είναι μόνο εργαλείο καταστροφής, αλλά μπορεί να είναι και μέσο τεράστιου κοινωνικού οφέλους, από την υγεία έως την εκπαίδευση.

Ο Hinton καταλήγει: «Δεν ξέρουμε αν μπορούμε να κάνουμε την AI πραγματικά φιλική προς τον άνθρωπο. Αλλά θα είναι τραγωδία να εξαφανιστούμε χωρίς καν να προσπαθήσουμε».

Ακολουθήστε το Sofokleousin.gr στο Google News
και μάθετε πρώτοι όλες τις ειδήσεις
Σχετικά Άρθρα