Polska uruchomiła nowy model języka open-source o nazwie Bielik, który został wytrenowany z wykorzystaniem danych tekstowych w języku polskim na superkomputerach Helios i Athena na Akademii Górniczo-Hutniczej w Krakowie.
Polski kontekst i wiedza specjalistyczna
Bielik został zaprojektowany, aby przewyższyć modele języków obcych w obsłudze języka polskiego i kontekstów kulturowych. Opracowany przez SpeakLeash Foundation i Cyfronet AGH, ten Large Language Model (LLM) ma 11 miliardów parametrów, co czyni go potężnym narzędziem do generowania tekstu w języku polskim.
Szkolenia i możliwości
Trening modelu wykorzystał moc superkomputera do optymalizacji, skalowania i generowania syntetycznych danych. Rezultatem jest solidny model zajmujący wysoką pozycję w rankingu Polish OpenLLM Leaderboard.
Zastosowania i potencjał na przyszłość
Otwarty charakter Bielika pozwala na jego wykorzystanie w wyspecjalizowanych dziedzinach, takich jak prawo i medycyna, zapewniając bezpieczeństwo polskich danych. Ta innowacja wzmacnia pozycję Polski w dziedzinie AI i zapewnia lokalne rozwiązanie niezależne od modeli międzynarodowych.