Η Ant Group, η εταιρεία που υποστηρίζεται από τον Τζακ Μα, πέτυχε ένα σημαντικό τεχνολογικό επίτευγμα στην εκπαίδευση μοντέλων τεχνητής νοημοσύνης (AI) χρησιμοποιώντας αποκλειστικά ημιαγωγούς κινεζικής κατασκευής, μειώνοντας έτσι το κόστος κατά 20%, σύμφωνα το Bloomberg.
Η εταιρεία κατάφερε να αναπτύξει την τεχνολογία με τη χρήση εγχώριων chips, μεταξύ των οποίων και εκείνα της Alibaba Group Holding Ltd. και της Huawei Technologies Co., εφαρμόζοντας τη μέθοδο Mixture of Experts (MoE) στη μηχανική μάθηση. Σύμφωνα με τις ίδιες πηγές, τα αποτελέσματα ήταν συγκρίσιμα με αυτά που επιτυγχάνονται μέσω των chip της Nvidia, όπως το H800. Παρότι η Ant εξακολουθεί να χρησιμοποιεί τις λύσεις της Nvidia για την ανάπτυξη της AI, η εταιρεία πλέον βασίζεται κυρίως σε εναλλακτικές επιλογές, όπως τα chips της Advanced Micro Devices Inc. (AMD) και των κινεζικών εταιρειών, για τα πιο πρόσφατα μοντέλα της.
Tο στοίχημα απέναντι στη Nvidia
Η προσπάθεια της Ant Group εντάσσεται σε έναν ευρύτερο ανταγωνισμό μεταξύ κινεζικών και αμερικανικών τεχνολογικών εταιρειών, που επιταχύνθηκε μετά την αποκάλυψη ότι η DeepSeek μπορούσε να εκπαιδεύσει εξαιρετικά ικανά AI μοντέλα επενδύοντας πολύ λιγότερα χρήματα, από ότι η OpenAI και η Google της Alphabet Inc.
Το επίτευγμα της Ant υπογραμμίζει τη στρατηγική των κινεζικών εταιρειών να αναπτύξουν τοπικές εναλλακτικές λύσεις στα πανίσχυρα chips της Nvidia, τα οποία τελούν υπό αυστηρούς περιορισμούς εξαγωγής από τις ΗΠΑ. Αν και το H800 δεν είναι το πιο προηγμένο chip της Nvidia, εξακολουθεί να είναι ένας ισχυρός επεξεργαστής που πλέον δεν μπορεί να διατεθεί στην Κίνα.
Σύμφωνα με πρόσφατη μελέτη που δημοσίευσε η Ant, τα νέα της μοντέλα τεχνητής νοημοσύνης σε ορισμένες περιπτώσεις ξεπέρασαν τις επιδόσεις της Meta Platforms Inc. σε συγκεκριμένα benchmarks. Παρότι οι ισχυρισμοί αυτοί δεν έχουν επιβεβαιωθεί, αν αποδειχθούν ακριβείς, θα μπορούσαν να σηματοδοτήσουν μια νέα εποχή για την κινεζική AI, μειώνοντας δραστικά το κόστος επεξεργασίας δεδομένων και ενισχύοντας την ανάπτυξη εγχώριων AI υπηρεσιών.
Η Ant μειώνει το κόστος
Καθώς οι εταιρείες παγκοσμίως επενδύουν δισεκατομμύρια δολάρια στην τεχνητή νοημοσύνη, τα μοντέλα MoE έχουν αναδειχθεί ως μία από τις πιο δημοφιλείς επιλογές, με τη Google και την DeepSeek να ηγούνται της υιοθέτησής τους. Η μέθοδος MoE επιτρέπει τη διαίρεση των εργασιών σε μικρότερα υποσύνολα δεδομένων, όπως συμβαίνει σε μία ομάδα ειδικών όπου ο καθένας επικεντρώνεται σε έναν τομέα. Αυτό βελτιώνει σημαντικά την απόδοση και την αποδοτικότητα της εκπαίδευσης των AI μοντέλων.
Η εκπαίδευση τέτοιων μοντέλων συνήθως απαιτεί ισχυρούς επεξεργαστές, όπως οι GPU της Nvidia, γεγονός που κάνει τη διαδικασία εξαιρετικά δαπανηρή. Η Ant εργάζεται πάνω σε μια λύση που θα επιτρέπει την ανάπτυξη ισχυρών AI μοντέλων χωρίς την ανάγκη για «premium GPUs». Η εξέλιξη αυτή έρχεται σε αντίθεση με την προσέγγιση της Nvidia. Ο CEO της, Τζένσεν Χουάνγκ, έχει υποστηρίξει ότι η ζήτηση για υπολογιστική ισχύ θα συνεχίσει να αυξάνεται, ακόμα και με την ανάπτυξη πιο αποδοτικών AI μοντέλων όπως το DeepSeek R1. Σύμφωνα με τον ίδιο, οι εταιρείες δεν θα αναζητούν φθηνότερες λύσεις, αλλά πιο ισχυρά chips για να αυξήσουν τα έσοδά τους.
H πορεία προς την αυτονομία
Σύμφωνα με εκτιμήσεις της Ant, το κόστος εκπαίδευσης 1 τρισεκατομμυρίου tokens με χρήση ισχυρού hardware ανέρχεται σε 6,35 εκατ. γουάν (περίπου 880.000 δολάρια). Ωστόσο, με τη νέα της μέθοδο, η εταιρεία μπορεί να μειώσει το κόστος σε 5,1 εκατ. γουάν, χρησιμοποιώντας λιγότερο ισχυρό hardware.
Η Ant σκοπεύει να αξιοποιήσει αυτή τη νέα προσέγγιση στα μεγάλα γλωσσικά μοντέλα που έχει αναπτύξει, Ling-Plus και Ling-Lite, για βιομηχανικές AI εφαρμογές, όπως η υγειονομική περίθαλψη και ο χρηματοπιστωτικός τομέας. Η εταιρεία ενίσχυσε πρόσφατα την παρουσία της στον τομέα της υγείας με την εξαγορά της κινεζικής διαδικτυακής πλατφόρμας Haodf.com, ενώ παράλληλα προσφέρει υπηρεσίες AI, όπως η εφαρμογή «Zhixiaobao» και η συμβουλευτική χρηματοοικονομική υπηρεσία «Maxiaocai».
Σύμφωνα με την Ant, το Ling-Lite ξεπέρασε το αντίστοιχο μοντέλο της Meta, Llama, σε βασικά benchmarks για την κατανόηση της αγγλικής γλώσσας. Στα κινέζικα benchmarks, τόσο το Ling-Lite όσο και το Ling-Plus απέδωσαν καλύτερα από τα μοντέλα της DeepSeek. «Αν βρεις ένα σημείο επίθεσης για να νικήσεις τον καλύτερο δάσκαλο του kung fu στον κόσμο, μπορείς να πεις ότι τον κέρδισες, γι’ αυτό είναι σημαντική η εφαρμογή στον πραγματικό κόσμο», δήλωσε ο Ρόμπιν Γιου, επικεφαλής τεχνολογίας της εταιρείας παροχής λύσεων τεχνητής νοημοσύνης με έδρα το Πεκίνο, Shengshang Tech Co.
Οι προκλήσεις και τα επόμενα βήματα της Ant
Παρότι η Ant σημείωσε σημαντική πρόοδο, η εκπαίδευση των μοντέλων της δεν ήταν χωρίς προκλήσεις. Η σταθερότητα των συστημάτων της παραμένει ένα ζήτημα, καθώς ακόμη και μικρές αλλαγές στο hardware ή στη δομή του μοντέλου οδήγησαν σε απότομες αυξήσεις στα ποσοστά σφάλματος, όπως αναφέρεται στη μελέτη της.
Το Ling-Lite διαθέτει 16,8 δισεκατομμύρια παραμέτρους, ενώ το Ling-Plus φτάνει τα 290 δισεκατομμύρια – αριθμοί που τα κατατάσσουν ανάμεσα στα μεγαλύτερα γλωσσικά μοντέλα. Ωστόσο, απέχουν ακόμη πολύ από το GPT-4.5 του ChatGPT, που σύμφωνα με το MIT Technology Review υπολογίζεται να έχει 1,8 τρισεκατομμύρια παραμέτρους, ή το DeepSeek-R1 με 671 δισ. παραμέτρους.
Αναλυτές εκτιμούν ότι η πρόοδος της Ant Group αντικατοπτρίζει τον ταχύτατο ρυθμό καινοτομίας στον κινεζικό AI τομέα. Αν οι ισχυρισμοί της επιβεβαιωθούν, η Κίνα φαίνεται πως πλησιάζει όλο και περισσότερο προς την AI αυτονομία, παρακάμπτοντας τους περιορισμούς των ΗΠΑ στην εξαγωγή προηγμένων Nvidia chips.
Διαβάστε ακόμη
JP Morgan: Ακραίες διακυμάνσεις και αβεβαιότητα το πρώτο εξάμηνο
Άπιαστο όνειρο η απόκτηση προσιτής κατοικίας – Τι δείχνει η μελέτη της Alpha Bank (διάγραμμα)
Ο δρόμος με την πιο εντυπωσιακή θέα στην Ελλάδα
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα