Η Samsung Electronics άρχισε να παράγει μαζικά το τσιπ συμπερασμάτων Groq 3 της Nvidia χρησιμοποιώντας τη διαδικασία χυτηρίου 4 νανομέτρων, σύμφωνα με τις εταιρείες ανακοινώθηκε στο συνέδριο προγραμματιστών GTC 2026 της Nvidia.
Η συμφωνία ενισχύει το τμήμα χυτηρίων της Samsung ως βασικό προμηθευτή στην αγορά συμπερασμάτων τεχνητής νοημοσύνης και σηματοδοτεί ένα σημαντικό βήμα στη στρατηγική της Nvidia 20 δισεκατομμυρίων δολαρίων για διαφοροποίηση πέρα από τις μονάδες επεξεργασίας γραφικών. Ο Διευθύνων Σύμβουλος της Nvidia, Jensen Huang, επιβεβαίωσε το ορόσημο παραγωγής κατά τη διάρκεια της κεντρικής ομιλίας του σε περισσότερους από 18.000 συμμετέχοντες στο SAP Center στο Σαν Χοσέ της Καλιφόρνια.
Το τσιπ Groq 3 προέρχεται από τη συμφωνία αδειοδότησης της Nvidia με την startup τεχνητής νοημοσύνης Groq, η οποία ολοκληρώθηκε την παραμονή των Χριστουγέννων του 2024. Η Nvidia απορρόφησε την βασική τεχνολογία του Groq και προσέλαβε τον ιδρυτή Jonathan Ross και άλλο βασικό προσωπικό ως μέρος της συμφωνίας. Η Huang συνέκρινε την ενσωμάτωση με την εξαγορά του Mellanox από την Nvidia το 2019, τοποθετώντας την τεχνολογία Groq ως συμπλήρωμα στη σειρά GPU της.
Η Μονάδα Επεξεργασίας Γλώσσας Groq 3 χρησιμοποιεί on-chip SRAM αντί για παραδοσιακή μνήμη υψηλού εύρους ζώνης, επιτρέποντας ταχύτερη μεταφορά δεδομένων και βελτιωμένη απόδοση ισχύος για φόρτους εργασίας συμπερασμάτων. Η Nvidia σχεδιάζει να αναπτύξει τα τσιπ σε rack συμπερασμάτων LPX που περιέχουν 256 LPU με 128 GB on-chip SRAM, διαθέσιμα το δεύτερο εξάμηνο του 2026.
Η Amazon Web Services ανακοίνωσε ότι θα αναπτύξει τους Groq 3 LPU μαζί με περισσότερες από ένα εκατομμύριο GPU της Nvidia ως μέρος μιας διευρυμένης συνεργασίας, σύμφωνα με την ανακοίνωση.
Η Samsung έχει αυξήσει την παραγωγή από περίπου 9.000 γκοφρέτες σε περίπου 15.000 γκοφρέτες καθώς η παραγωγή μετατοπίζεται από δείγματα σε μεγάλης κλίμακας εμπορική κατασκευή, σύμφωνα με πηγές του κλάδου που επικαλείται η TrendForce.
Η Samsung παρουσίασε επίσης το τσιπ μνήμης υψηλού εύρους ζώνης HBM4E στο GTC, παρουσιάζοντας για πρώτη φορά το φυσικό τσιπ και το core-die wafer. Το HBM4E έβδομης γενιάς έχει σχεδιαστεί για να παρέχει ταχύτητες έως και 16 gigabit ανά δευτερόλεπτο ανά pin και εύρος ζώνης 4 terabyte ανά δευτερόλεπτο. Το HBM4 έκτης γενιάς της εταιρείας βρίσκεται ήδη σε μαζική παραγωγή για την πλατφόρμα AI Vera Rubin της Nvidia.
Πηγή της Samsung είπε στο Chosun Ilbo ότι η Samsung είναι «η μόνη εταιρεία που μπορεί να προσφέρει μια συνολική λύση συνδέοντας και παρέχοντας πολλαπλά βασικά στοιχεία σε έναν διακομιστή AI».
Οι ανακοινώσεις υπογραμμίζουν τον αυξανόμενο ανταγωνισμό στο συμπέρασμα AI, όπου η Google και η Amazon έχουν αναπτύξει προσαρμοσμένα τσιπ για να αμφισβητήσουν τη θέση της Nvidia στην αγορά. Η Huang προέβλεψε τουλάχιστον 1 τρισεκατομμύριο δολάρια σε σωρευτικά έσοδα από τσιπ AI από το 2025 έως το 2027.
VIA: DataConomy.com
