Το 2025 δεν ήταν η χρονιά που η Τεχνητή Νοημοσύνη «μας πρόλαβε». Ήταν η χρονιά που εμείς προσπαθήσαμε, και συχνά αποτύχαμε, να την καταλάβουμε. Ανάμεσα σε εντυπωσιακές ανακοινώσεις, φόβους, υπερβολές και τεχνολογική κόπωση, τρεις αμφιβολίες επανήλθαν ξανά και ξανά στον δημόσιο διάλογο. Και ήρθε η ώρα να τις αφήσουμε πίσω.
Τα μοντέλα AI έχουν φτάσει σε τοίχο
Κάθε φορά που κυκλοφορεί ένα νέο μεγάλο μοντέλο, επανεμφανίζεται η ίδια ερώτηση: αυτό ήταν; Το επιχείρημα λέει ότι η πρόοδος είναι πια οριακή, ότι οι βελτιώσεις είναι περισσότερο επικοινωνιακές παρά ουσιαστικές. Η κυκλοφορία του GPT-5 ενίσχυσε αυτή την εντύπωση, ειδικά όταν αρκετοί παρατήρησαν ότι η εμπειρία χρήσης δεν άλλαξε δραματικά από τη μια μέρα στην άλλη. Ακόμη και έντυπα κύρους, όπως το The New Yorker, μίλησαν ανοιχτά για πιθανή επιβράδυνση.
Όμως η πραγματικότητα είναι πιο σύνθετη. Η πρόοδος δεν μετριέται μόνο σε «εξυπνότερες απαντήσεις», αλλά σε αποδοτικότητα, κόστος, σταθερότητα και ικανότητα εφαρμογής σε πραγματικές συνθήκες. Το 2025, οργανισμοί όπως η OpenAI και η Google DeepMind παρουσίασαν μοντέλα που δεν απλώς “μιλούν καλύτερα”, αλλά εκτελούν οικονομικά κρίσιμες εργασίες με τρόπο που μέχρι πρότινος θεωρούνταν μη ρεαλιστικός. Δεν υπάρχει «τοίχος». Υπάρχει αλλαγή κατεύθυνσης: λιγότερο εντυπωσιακά demo, περισσότερη σιωπηλή πρόοδος εκεί όπου η AI πρέπει να λειτουργήσει ως εργαλείο και όχι ως θέαμα.
Η αυτόνομη τεχνητή νοημοσύνη είναι από τη φύση της επικίνδυνη
Όταν ένα chatbot κάνει λάθος, το πολύ να γελάσουμε ή να εκνευριστούμε. Όταν όμως ένα σύστημα AI ελέγχει ένα αυτοκίνητο ή μια κρίσιμη υποδομή, το λάθος αποκτά βάρος. Δεν είναι παράλογο λοιπόν που ένα μεγάλο ποσοστό πολιτών δηλώνει επιφυλακτικό απέναντι στα αυτόνομα συστήματα. Και όμως, τα δεδομένα του 2025 λένε μια λιγότερο δραματική ιστορία. Αναλύσεις εκατοντάδων εκατομμυρίων χιλιομέτρων από στόλους αυτόνομων οχημάτων, δείχνουν ότι τα συστήματα αυτά εμπλέκονται σημαντικά λιγότερο σε ατυχήματα με τραυματισμούς σε σύγκριση με ανθρώπινους οδηγούς.
Το πρόβλημα δεν είναι ότι η AI είναι επικίνδυνη. Το πρόβλημα είναι ότι δεν συγχωρούμε στα μηχανήματα ό,τι συγχωρούμε καθημερινά στον άνθρωπο: την κόπωση, την απροσεξία, την κακή κρίση. Η συζήτηση για την ασφάλεια δεν πρέπει να είναι συναισθηματική, πρέπει να είναι στατιστική.
Η AI δεν μπορεί να παράγει νέα γνώση
Ίσως η πιο επίμονη κριτική, ότι τα μεγάλα γλωσσικά μοντέλα απλώς ανακυκλώνουν πληροφορίες. Ότι είναι, όπως λένε οι επικριτές τους, “στοχαστικοί παπαγάλοι”. Το επιχείρημα ενισχύθηκε και από ερευνητικά κείμενα της Apple, που υποστήριξαν ότι η “λογική” των μοντέλων είναι εν πολλοίς ψευδαίσθηση. Και όμως, το 2025 είδαμε συστήματα AI να συμβάλλουν σε λύσεις μαθηματικών προβλημάτων που παρέμεναν ανοιχτά για χρόνια, να προτείνουν νέες θεωρητικές κατασκευές και να λειτουργούν ως συνεργάτες έρευνας — όχι ως απλοί αναμεταδότες γνώσης. Δεν «σκέφτονται» όπως οι άνθρωποι. Αλλά αυτό δεν σημαίνει ότι δεν μπορούν να παράγουν κάτι καινούργιο. Η AI μπορεί να αποτυγχάνει σε απλές, σχεδόν παιδικές εργασίες, και ταυτόχρονα να διαπρέπει σε εξαιρετικά σύνθετες. Αυτή η αντίφαση δεν την ακυρώνει, την ορίζει.
Το 2025 μας δίδαξε κάτι απλό αλλά άβολο: το πρόβλημα δεν είναι ότι η Τεχνητή Νοημοσύνη προχωρά γρήγορα. Είναι ότι εμείς επιμένουμε να τη μετράμε με λάθος κριτήρια. Αν θέλουμε σοβαρό διάλογο, πρέπει πρώτα να αποχαιρετήσουμε τις αμφιβολίες μας.





