
Prancūzų AI startuolis „Mistral“ pristato naujas AI modelio tinkinimo parinktis, įskaitant mokamus planus, kad kūrėjai ir įmonės galėtų tiksliai suderinti generuojamuosius modelius tam tikriems naudojimo atvejams.
Pirmasis yra savitarna. „Mistral“ išleido programinės įrangos kūrimo rinkinį (SDK), „Mistral-Finetune“, skirtą darbo stočių, serverių ir mažų duomenų centrų mazgų modeliams tobulinti.
SDK „GitHub“ saugyklos skaityme „Mistral“ pažymi, kad SDK yra optimizuotas kelių GPU sąrankoms, tačiau gali sumažinti iki vieno „Nvidia A100“ arba „H100“ GPU, kad būtų galima tiksliai suderinti mažesnius modelius, tokius kaip „Mistral 7B“. Tikslus duomenų rinkinio, pvz., „UltraChat“, 1,4 mln. dialogo langų su „OpenAI ChatGPT“, derinimas užtrunka maždaug pusvalandį naudojant „Mistral-Finetune“ aštuoniuose H100, teigia „Mistral“.
Kūrėjams ir įmonėms, kurios renkasi labiau valdomus sprendimus, naujai pristatytos „Mistral“ koregavimo paslaugos, pasiekiamos per bendrovės API. Šiuo metu suderinamas su dviem „Mistral“ modeliais, „Mistral Small“ ir „Mistral 7B“, „Mistral“ teigia, kad artimiausiomis savaitėmis koregavimo paslaugos sulauks daugiau jo modelių.
Galiausiai, „Mistral“ debiutuoja pritaikytomis mokymo paslaugomis, šiuo metu prieinamomis tik tam tikriems klientams, kad būtų galima tiksliai suderinti bet kokį „Mistral“ modelį organizacijos programoms naudojant jų duomenis. „Šis metodas leidžia sukurti labai specializuotus ir optimizuotus modelius jų konkrečiam domenui“, – aiškina bendrovė savo oficialiame tinklaraštyje.
„Mistral“, apie kurį neseniai pranešė mano kolegė Ingrid Lunden, siekia surinkti apie 600 mln. generatyvioji AI erdvė.
Nuo tada, kai 2023 m. rugsėjį „Mistral“ pristatė savo pirmąjį generacinį modelį, jis buvo išleistas dar keliuose, įskaitant kodą generuojantį modelį, ir išleido mokamas API. Tačiau ji neatskleidė, kiek vartotojų turi ir kaip atrodo jos pajamos.