Главная          О Компании          Контакты               Телефон: (012) 449-50-31
                 (055) 580-44-09
Поиск
Категории
 HP
 Gigabyte
 Lenovo
 Asus
 Dell
 HP
 Toshiba
 Benq
 Sony
 Samsung
 Lenovo
 Gigabyte
 Gigabyte
 Foxconn
 MSI
 Gigabyte
 HP
 Gigabyte
 Creative
 HP
 Kingston
 Super Talent
 Team Group
 TwinMOS
 Samsung
 Dynet
 Hynix
 Patriot
 A-data
 Crucial
 PNY
 Neo Forza
 Seagate
 Western Digital
 HP
 Fujitsu
 Western Digital
 Plextor
 HP
 Seagate
 PNY
 Gigabyte
 Kingston
 ADATA
 AgeStar
 HP
 Lightwave
 Seagate
 SimpleTech
 S-tek
 Transcend
 Western Digital
 Gigabyte
 Benq
 LG
 LITE-ON
 Creative
 Logitech
 HP
 Gigabyte
 Genius
 Edifier
 Sayona
 Creative
 Logitech
 HP
 Codegen
 Gigabyte
 Gigabyte
 GlacialTech
 Godegen
 Mercury
 EVGA
 HP
 Gigabyte
 Zippy
 Logitech
 HP
 A4Tech
 Microsoft
 Creative
 Gigabyte
 Logitech
 HP
 A4Tech
 Genius
 Microsoft
 Creative
 HP
 Benq
 HP
 LG
 Asus
 Lenovo
 Gigabyte
 Benq
 Toshiba
 Canon
 Epson
 HP
 Xerox
 Samsung
 Mustek
 HP
 IRISCard
 Aztech
 Creative
 Shiro
 SMC
 Zyxel
 HP
 TP-Link
 AzTech
 Shiro
 SMC
 Gigabyte
 D-Link
 CNet
 TP-Link
 Zyxel
 HP
 Tp-Link
 SMC
 Kingston
 Super Talent
 TwinMOS
 Silicon Power
 Patriot
 Gigabyte
 GlacialTech
 Powercom
 Dexter
 Canon
 Epson
 Fullmark
 HP
 Lexmark
 Oki
 Panasonic
 Xerox
 Samsung
 Kaspersky
 Dr.Web
 McAfee
 GP
 HP
 Toshiba
 HP
 Toshiba
Производители
 A-data ABBYY
 ADATA Apple
 Aztech Benq
 Canon Codegen
 Creative Crucial
 DeepCool Dell
 Dexter EVGA
 Gigabyte GlacialTech
 GP HP
 Hynix Intel
 IRISCard Kaspersky
 Kingston Lenovo
 LG LITE-ON
 Logitech Microsoft
 Neo Forza Patriot
 Plextor PNY
 Powercom Samsung
 Seagate Shiro
 Silicon Power SMC
 Super Talent Team Group
 TP-Link TwinMOS
 Western Digital
Собери свой компьютер
Google представила компактную языковую модель Gemma 2 2B, которая превосходит GPT 3.5 Turbo

Компания Google представила Gemma 2 2B — компактную, но мощную языковую модель искусственного интеллекта (LLM), которая может составить конкуренцию лидерам отрасли, несмотря на свой значительно меньший размер. Новая языковая модель, содержащая всего 2,6 миллиарда параметров, демонстрирует производительность не хуже гораздо более крупных аналогов, включая OpenAI GPT-3.5 и Mistral AI Mixtral 8x7B.



В тесте LMSYS Chatbot Arena, популярной онлайн-платформы для сравнительного тестирования и оценки качества моделей искусственного интеллекта, Gemma 2 2B набрала 1130 баллов. Этот результат немного опережает результаты GPT-3.5-Turbo-0613 (1117 баллов) и Mixtral-8x7B (1114 баллов) — моделей, обладающих в десять раз большим количеством параметров.



Google сообщает, что Gemma 2 2B также набрала 56,1 балла в тесте MMLU (Massive Multitask Language Understanding) и 36,6 балла в тесте MBPP (Mostly Basic Python Programming), что является значительным улучшением по сравнению с предыдущей версией.

Gemma 2 2B бросает вызов общепринятому мнению, что более крупные языковые модели изначально работают лучше компактных. Производительность Gemma 2 2B показывает, что сложные методы обучения, эффективность архитектуры и высококачественные наборы данных могут компенсировать недостаток в числе параметров. Разработка Gemma 2 2B также подчеркивает растущую важность методов сжатия и дистилляции моделей ИИ. Возможность эффективно компилировать информацию из более крупных моделей в более мелкие открывает возможности к созданию более доступных инструментов ИИ, при этом не жертвуя их производительностью.

Google обучила Gemma 2 2B на огромном наборе данных из 2 триллионов токенов, используя системы на базе своих фирменных ИИ-ускорителей TPU v5e. Поддержка нескольких языков расширяют её потенциал для применения в глобальных приложениях. Модель Gemma 2 2B имеет открытый исходный код. Исследователи и разработчики могут получить доступ к модели через платформу Hugging Face. Она также поддерживает различные фреймворки, включая PyTorch и TensorFlow.
 
Главная | Все новости