Μια σειρά ανθρώπων στους οποίους οφείλεται η εκρηκτική ανάπτυξη της Τεχνητής Νοημοσύνης (AI), τους τελευταίους μήνες έχουν αναπάντεχα πάρει θέση δημόσια προειδοποιώντας για τους κινδύνους που εγκυμονεί αυτή η «διαδικασία».

Κάποιοι μάλιστα εξ’ αυτών έχουν παραιτηθεί πρόσφατα από τις θέσεις τους στους τεχνολογικούς κολοσσούς που οι ίδιοι βοήθησαν καταλυτικά, να δημιουργηθούν.

Θα μπορούσαμε να αναφέρουμε εδώ τον Mrinank Shama, επικεφαλής της έρευνας στην Anthropic ή τον Dario Amodei ιδρυτή της Anthropic, όταν παραιτήθηκε από την OpenAI, όπως και άλλους που έχουν «τιμηθεί» για την συμβολή τους στην ανάπτυξη της AI, σαν τους Geoffrey Hinton και Geoffrey Hinton (βραβείο Turing, κλπ.).

Δεν πρόκειται όμως για προειδοποιήσεις μόνο από ανθρώπους της AI, αλλά και της «αγοράς», της χρηματιστηριακής αγοράς.

Χαρακτηριστική η αναφορά ενός επενδυτή του οποίου η «χαριτωμένα» ειρωνική άποψη, μεταφέρεται από το Bloomberg και χτυπάει το καμπανάκι λέγοντας, «Νομίζω ότι θα πρέπει ειρωνικά να αγαπήσουμε τον τρόπο με τον οποίο αργά αλλά σταθερά επαναφέρουμε όλα τα χαρακτηριστικά της πρώτης τεχνολογικής φούσκας. Αυτή την στιγμή βρισκόμαστε στην φάση των ομολόγων σκουπιδιών για την χρηματοδότηση περιουσιακών στοιχείων που αποσβένονται πολύ γρήγορα…».

Με άλλα λόγια πλησιάζουμε στην κρίσιμη στιγμή της… αλήθειας.

Στο ίδιο πνεύμα και η Bank of Amerika ο αναλυτής στρατηγικής της οποίας επισημαίνει ότι «ο πιο προφανής καταλύτης για να αντιστραφεί σημαντικά η εναλλαγή «AI – awe to AI – poor» ένας «υπερκλιμακωτής» ΑΙ που ανακοινώνει περικοπή κεφαλαίου».

Θα μπορούσαμε να προσθέσουμε εδώ εμείς «με την ευκαιρία των επικείμενων ανακοινώσεων αποτελεσμάτων τους».

Τι είναι αυτό που φοβούνται; Ποιοι είναι οι κίνδυνοι που διαβλέπουν;

Το επόμενο διάγραμμα της Bofa είναι ενδεικτικό της ποιότητας και της έκτασης ενός εκ των δύο βασικών κινδύνων που διαβλέπουν.

image

Το διάγραμμα της Bofa καταδεικνύει την ιστορικά πρωτοφανή χρηματοδοτική επέκταση, η οποία δεν μπορεί να συμβαδίσει με το βασικό κριτήριο μιας ανάλογης κλίμακας απόδοσης αυτών των κεφαλαίων άμεσα!

Αυτή την απλή αλήθεια, την οποία μας είχε επισημάνει η «στιγμή sputnik» της DeepSeek πριν από ένα περίπου χρόνο υπενθυμίζει η Bofa με το εν λόγω συγκριτικό διάγραμμα. Τότε, πριν ένα χρόνο και κάτι, η γνωστή πλέον κινεζική εταιρεία AI είχε παράξει ένα μοντέλο ελεύθερης χρήσης LLM με αποτελεσματικότητα σχεδόν ανάλογη των πανάκριβων LLM των ΗΠΑ, με ασύγκριτα μικρότερη χρηματοδότηση. Μια τακτική η οποία σήμερα συνεχίζεται με ένα πλάνο χρηματοδότησης που δεν ξεπερνά τα 36 δις δολ. στην Κίνα για το 2026 και τα πάνω από 670 δις δολ. στις ΗΠΑ… Με μία αυτοσαρκαστική ειρωνική διάθεση ο επενδυτής του Bloomberg μας υπενθυμίζει ότι «πλησιάζουμε» την στιγμή της αλήθειας.

Ο δεύτερος κίνδυνος για τον οποίο κυρίως προειδοποιεί ο Mrinank Shama, πρώην επικεφαλής της έρευνας για την προστασία στην Anthropic που παραιτήθηκε πρόσφατα είναι ότι «Ο κόσμος βρίσκεται σε κίνδυνο. Και όχι μόνο λόγω της τεχνητής νοημοσύνης ή των βιολογικών όπλων, αλλά λόγω μιας σειράς αλληλένδετων κρίσεων που αναπτύσσονται αυτή τη στιγμή». Σύμφωνα με τον Shama η αιτία του κινδύνου δεν αφορά τις τεχνικές ή άλλες ατέλειες στους αλγόριθμους. 

Αφορά εμάς και την ικανότητά μας να τους διαχειριστούμε. 

Αφορά με άλλα λόγια την ανισορροπία ανάμεσα στην ταχύτητα ανάπτυξης της ΑΙ και της ικανότητάς μας να διαχειριστούμε προς «όφελός» μας τα αποτελέσματά της και τις δυνατότητες που αυτή δημιουργεί στον κόσμο που ζούμε… 

Για τον ίδιο κίνδυνο προειδοποιεί και ο Dario Amodei που ίδρυσε την Anthropic (είχε φύγει από την OpenAI), με την ψευδαίσθηση ότι θα μπορούσε να ελέγχει αυτόν τον κίνδυνο.  Τώρα προειδοποιεί ότι η ανθρωπότητα, κινδυνεύει από την ανεξέλεγκτη επέκταση της ΑΙ, να χάσει την ικανότητά της να ρυθμίζει και να ελέγχει την εξέλιξη των νέων μοντέλων Τεχνητής Νοημοσύνης. Και κατά συνέπεια να μπορεί να διαχειρίζεται τις επιπτώσεις της ανεξέλεγκτης «δράσης» τους.

Θα μπορούσε να πει κανείς ότι η διασύνδεση αυτών των δύο κινδύνων και η εκρηκτική αντίφαση που εμπεριέχεται σ’ αυτή, θα μπορούσε να λειτουργήσει σαν ένα καταστροφικό «φρένο» σ’ αυτή την ανεξέλεγκτη πορεία. 

Ίσως, αλλά αυτό, αν συμβεί, θα κοστίσει πολύ πολύ ακριβά…