Der taiwanesische Elektronikkonzern Foxconn hat ein eigenes Large Language Model (LLM) mit erweiterten Reasoning-Fähigkeiten entwickelt. Das Modell mit dem Namen FoxBrain wurde in nur vier Wochen trainiert und soll zunächst für interne Anwendungen in den Bereichen Datenanalyse, Mathematik, logisches Denken und Codegenerierung genutzt werden.
Die Entwicklung erfolgte mit Unterstützung von Nvidia, das Supercomputer-Kapazitäten in Taiwan sowie technische Beratung bereitstellte. Foxconn nutzte 120 H100-Grafikprozessoren von Nvidia, um das Modell effizient zu trainieren.
Laut Foxconn basiert FoxBrain auf der Architektur von Meta Llama 3.1 und ist das erste taiwanesische LLM mit fortschrittlichen Reasoning-Fähigkeiten. Es wurde speziell für traditionelles Chinesisch optimiert, das in Taiwan und Teilen der chinesischen Diaspora genutzt wird.
Das Unternehmen plant, FoxBrain als Open-Source-Modell für Kooperationen mit Industriepartnern freizugeben. Ziel sei es, Fortschritte in der Fertigung und im Supply-Chain-Management zu ermöglichen.
Die Leistung von FoxBrain liege knapp hinter den führenden Modellen des chinesischen DeepSeek, nähere sich jedoch der Weltspitze an, teilte Foxconn mit. Weitere technische Details sollen auf der Nvidia GTC im März vorgestellt werden.
Angesichts des zunehmenden Wettbewerbs und sinkender Margen im Elektronikgeschäft diversifiziert sich Foxconn verstärkt in Zukunftsbereiche wie Künstliche Intelligenz und Elektrofahrzeuge.