Taiwanilainen elektroniikkayhtiö Foxconn on kehittänyt oman Large Language Model (LLM) -mallin, jolla on laajennetut päättelykyvyt. FoxBrain-niminen malli koulutettiin vain neljässä viikossa, ja sitä on tarkoitus aluksi käyttää sisäisissä sovelluksissa data-analyysin, matematiikan, loogisen ajattelun ja koodin generoinnin alueilla.
Kehitys toteutettiin Nvidian tuella, joka tarjosi supertietokonekapasiteettia Taiwanissa sekä teknistä neuvontaa. Foxconn käytti Nvidian 120 H100-grafiikkaprosessoria mallin tehokkaaseen kouluttamiseen.
Foxconnin mukaan FoxBrain perustuu Meta Llama 3.1 -arkkitehtuuriin ja on ensimmäinen taiwanilainen LLM, jolla on kehittyneet päättelykyvyt. Se on erityisesti optimoitu Taiwanissa ja osissa kiinalaista diasporaa käytetylle perinteiselle kiinalle.
Yritys aikoo vapauttaa FoxBrainin avoimen lähdekoodin malliksi yhteistyöhön teollisuuskumppaneiden kanssa. Tavoitteena on edistää valmistuksen ja toimitusketjun hallinnan kehitystä.
Foxconnin mukaan FoxBrainin suorituskyky on hieman Kiinan DeepSeekin johtavien mallien jäljessä, mutta lähestyy maailman huippua. Lisää teknisiä yksityiskohtia esitellään Nvidian GTC:ssä maaliskuussa.
Angesichts des zunehmenden Wettbewerbs und sinkender Margen im Elektronikgeschäft diversifiziert sich Foxconn verstärkt in Zukunftsbereiche wie Künstliche Intelligenz und Elektrofahrzeuge.