Ανοίγοντας το δρόμο για εκτεταμένη στρατιωτική χρήση της τεχνητής νοημοσύνης, η OpenAI ανακοίνωσε συμφωνία με το αμερικανικό Πεντάγωνο για την ανάπτυξη των μοντέλων της στο διαβαθμισμένο δίκτυο του Υπουργείου Άμυνας, λίγες ώρες μετά την απόφαση της κυβέρνησης Τραμπ να αποκλείσει την ανταγωνίστρια Anthropic από κάθε συνεργασία με ομοσπονδιακές υπηρεσίες.
Ο διευθύνων σύμβουλος της OpenAI, Sam Altman, γνωστοποίησε αργά το βράδυ της Παρασκευής ότι επήλθε συμφωνία με το Υπουργείο Άμυνας, το οποίο στην ανάρτησή του αποκάλεσε "Υπουργείο Πολέμου", για την ανάπτυξη των μοντέλων της εταιρείας σε διαβαθμισμένο περιβάλλον.
Όπως σημείωσε, το Πεντάγωνο επέδειξε «σεβασμό στα ζητήματα ασφάλειας» και διάθεση συνεργασίας για το «βέλτιστο δυνατό αποτέλεσμα».
Η απόφαση-σοκ κατά της Anthropic
Η εξέλιξη ήρθε σε μια εβδομάδα έντονων πολιτικών και θεσμικών αναταράξεων για τον κλάδο της τεχνητής νοημοσύνης. Ο Υπουργός Άμυνας Πιτ Χέσγκεθ χαρακτήρισε την Anthropic «κίνδυνο εφοδιαστικής αλυσίδας για την εθνική ασφάλεια», χαρακτηρισμό που συνήθως αποδίδεται σε ξένους αντιπάλους.
Η απόφαση υποχρεώνει προμηθευτές και εργολάβους του Πενταγώνου να πιστοποιούν ότι δεν χρησιμοποιούν τα μοντέλα της Anthropic. Παράλληλα, ο Πρόεδρος Τραμπ έδωσε εντολή σε όλες τις ομοσπονδιακές υπηρεσίες να «διακόψουν άμεσα» κάθε χρήση της τεχνολογίας της εταιρείας.
Η Anthropic ήταν η πρώτη εταιρεία που είχε αναπτύξει τα μοντέλα της στο διαβαθμισμένο δίκτυο του Υπουργείου Άμυνας και βρισκόταν σε διαπραγματεύσεις για την ανανέωση των όρων συνεργασίας.
Σύμφωνα με πληροφορίες, η ρήξη επήλθε όταν η εταιρεία ζήτησε ρητές εγγυήσεις ότι τα μοντέλα της δεν θα χρησιμοποιηθούν για πλήρως αυτόνομα οπλικά συστήματα ή για μαζική επιτήρηση Αμερικανών πολιτών. Το Πεντάγωνο, αντίθετα, φέρεται να απαιτούσε τη δυνατότητα χρήσης των μοντέλων σε κάθε «νόμιμη» επιχειρησιακή εφαρμογή.
Η εταιρεία δήλωσε ότι είναι «βαθιά απογοητευμένη» από τον χαρακτηρισμό και προανήγγειλε προσφυγή στη δικαιοσύνη.
Οι «κόκκινες γραμμές» της OpenAI
Ο Άλτμαν είχε ενημερώσει εσωτερικά τους εργαζομένους ότι η OpenAI συμμερίζεται τις ίδιες «κόκκινες γραμμές» με την Anthropic. Στη δημόσια τοποθέτησή του επανέλαβε ότι δύο από τις βασικές αρχές ασφαλείας της εταιρείας είναι:
- η απαγόρευση μαζικής εγχώριας επιτήρησης,
- η διατήρηση ανθρώπινης ευθύνης στη χρήση βίας, συμπεριλαμβανομένων των αυτόνομων οπλικών συστημάτων.
Σύμφωνα με τον ίδιο, οι αρχές αυτές ενσωματώθηκαν ρητά στη συμφωνία με το Υπουργείο Άμυνας. Η OpenAI θα αναπτύξει τεχνικές δικλίδες ασφαλείας ώστε τα μοντέλα της «να λειτουργούν όπως πρέπει», ενώ θα διαθέσει και προσωπικό για την εποπτεία της ορθής και ασφαλούς χρήσης τους.
Ο διευθύνων σύμβουλος της εταιρείας κάλεσε μάλιστα το Πεντάγωνο να προσφέρει τους ίδιους όρους σε όλες τις εταιρείες τεχνητής νοημοσύνης, εκφράζοντας την επιθυμία «αποκλιμάκωσης» των νομικών και κυβερνητικών συγκρούσεων και επιστροφής σε «λογικές συμφωνίες».
Πολιτική και ανταγωνισμός στην άμυνα
Δεν είναι σαφές γιατί το Πεντάγωνο αποδέχθηκε τις προϋποθέσεις της OpenAI και όχι της Anthropic. Ωστόσο, κυβερνητικοί αξιωματούχοι είχαν το τελευταίο διάστημα επικρίνει την Anthropic ότι υιοθετεί «υπερβολικά αυστηρή» στάση σε ζητήματα ασφάλειας, καθυστερώντας κρίσιμες αποφάσεις.
Η εξέλιξη αυτή αναδεικνύει τη ραγδαία πολιτικοποίηση της τεχνητής νοημοσύνης στις ΗΠΑ, ιδίως σε ό,τι αφορά στρατιωτικές και διαβαθμισμένες εφαρμογές. Ταυτόχρονα, ενισχύει τον ανταγωνισμό μεταξύ των κορυφαίων εργαστηρίων AI για πρόσβαση σε κρατικά συμβόλαια υψηλής στρατηγικής σημασίας.
Με τον Λευκό Οίκο να έχει υιοθετήσει πιο επιθετική γραμμή έναντι εταιρειών που προβάλλουν αυστηρούς περιορισμούς στη στρατιωτική χρήση των μοντέλων τους, η συμφωνία OpenAI–Πενταγώνου ενδέχεται να αποτελέσει πρότυπο - ή σημείο τριβής- για το πώς θα διαμορφωθεί το μέλλον της τεχνητής νοημοσύνης στην άμυνα.