Tajvanska elektronička korporacija Foxconn razvila je vlastiti model velikog jezika (LLM) s poboljšanim sposobnostima zaključivanja. Model pod nazivom FoxBrain treniran je u samo četiri tjedna i isprva će se koristiti za interne primjene u područjima analize podataka, matematike, logičkog razmišljanja i generiranja koda.
Razvoj je izveden uz podršku Nvidije, koja je osigurala kapacitete superračunala u Tajvanu, kao i tehničko savjetovanje. Foxconn je koristio 120 H100 grafičkih procesora od Nvidije kako bi učinkovito trenirao model.
Laut Foxconn temelji se FoxBrain na arhitekturi Meta Llama 3.1 i prvi je tajvanski LLM s naprednim sposobnostima rezoniranja. Posebno je optimiziran za tradicionalni kineski jezik, koji se koristi na Tajvanu i dijelovima kineske dijaspore.
Tvrtka planira objaviti FoxBrain kao open-source model za suradnju s industrijskim partnerima. Cilj je omogućiti napredak u proizvodnji i upravljanju lancem opskrbe.
Foxconn je priopćio da je učinak FoxBraina malo iza vodećih modela kineskog DeepSeeka, ali se približava svjetskom vrhu. Daljnji tehnički detalji bit će predstavljeni na Nvidia GTC-u u ožujku.
Angesichts der zunehmenden Konkurrenz und sinkenden Margen im Elektronikgeschäft diversifiziert sich Foxconn verstärkt in Zukunftsbereiche wie Künstliche Intelligenz und Elektrofahrzeuge.