LG AI Research первой в Южной Корее запустила ИИ-модель с открытым исходным кодом EXAONE 3.0. Платформа основана на архитектуре Decoder-only Transformer, и с её помощью компания сможет выйти на глобальный рынок ИИ-систем, где сейчас доминирует преимущественно американский софт.
EXAONE 3.0 использует 7,8 млрд параметров и 8 трлн обучающих токенов. По задумке LG, платформа поможет вывести исследования в области ИИ на новый уровень. При этом степень владения английским языком в модели достигла пикового значения, превосходя, например, Llama 3.0.
Если говорить о математических вычислениях, EXAONE 3.0 также занимает первое место в общем зачёте, демонстрируя высокие способности к рассуждению: ИИ-платформа лидирует по средним показателям в отдельных бенчмарках в Южной Корее, сокращая время на обработку запросов на 56% и снижая нагрузку на память на 35%. Эксплуатационные расходы при её работе снизились на 72% в сравнении с предыдущей версией модели.
EXAONE 3.0 была обучена на 60 млн массивах данных, связанных с патентами, кодингом, математикой и химией. Компания планирует расширить данные обучения до 100 млн массивов в различных областях к концу 2024 года. Вдобавок LG AI Research удалось снизить электропотребление, при этом размер модели сократился на целых 97%, хотя производительность по сравнению с EXAONE 1 сильно выросла.
Источник:
Будет ли ответ от Касперского, Сбера или Тинькова?
Ещё забыл Яндекс. Как же без него.
У нас вообще есть хоть что-то близкое к LLama 3.1?
Робот Фёдор
макет которого спёр-ли с робота японского
ИИ Тинькофф же есть. В титанах видел
Хах я тоже видел)
GigaChat, YandexGPT не?
Так я и перечислил всех главных игроков ИИ на российском рынке
Когда pyccкие что-то не могут как остальной мир, они оскорбляют этот мир примерно в этом роде.