Back to list
arxiv_cs_ai 2026年2月10日

Bielik Guard:効率的なLLMコンテンツモデレーション用のポーランド語安全分類器

Bielik Guard: Efficient Polish Language Safety Classifiers for LLM Content Moderation

Translated: 2026/3/7 13:19:01
large-language-modelspolish-languagecontent-moderationself-harm-classification

Japanese Translation

大規模言語モデル(LLMs)がポーランド語アプリケーションに広くデプロイされるにつれて、内容に関するセキュリティ分類への需要はますます大きくなってきました。我々はBielik Guardというポーランド語の安全分類器のファミリーをご紹介します。これらのおもちゃ箱のようなポーランド語の安全分類器は2つのモデルバリアントにまとめられています:0. 1 ビリットモデルと0. 5 ビリットモデルです。両方ともRobera-baseとPKOBP/polish-roberta-8kに基づいています。これらのおもちゃ箱模型のトレーニングは、コミュニティによって評価された6, 885ポーランド語のテキストから行われました。これらのモデルは、Hate/Aggression、Vulgarity、Sexual Content、CrimesとSelf-Harmの5つのセキュリティカテゴリーにおける内容を分類します。 Bielik Guardモデルの評価では、両方のモデルが複数のスチールに強力な性能を持っていることが示されました。0. 5 ビリットモデルはテストセットでのF1スコア(微小)0. 791と(マクロ)0. 785を提供し、特に優れた差別化能力を持つことで知られています。一方、0. 1 ビリットモデルは卓越したエフォートを惜しまないでした。Bielik Guard 0. 1Bv1. 1は、実際のユーザーのポジションに適用されるものに対しては特に高い精度(77. 65%)と非常に低くの偽陽性率(0. 63%)を提供します。それは、HerBERT-PL-Guard (31. 55 %の精密度 and ファクス・フレーマー・レート4. 70 %)に制約されたモデルサイズに比べると優れています。”Bielik Guardは公開されており、単純なコンテンツブロックではなく、特に自傷に関するセキュリティカテゴリに対して適切な返答を提供します。

Original Content

arXiv:2602.07954v1 Announce Type: cross Abstract: As Large Language Models (LLMs) become increasingly deployed in Polish language applications, the need for efficient and accurate content safety classifiers has become paramount. We present Bielik Guard, a family of compact Polish language safety classifiers comprising two model variants: a 0.1B parameter model based on MMLW-RoBERTa-base and a 0.5B parameter model based on PKOBP/polish-roberta-8k. Fine-tuned on a community-annotated dataset of 6,885 Polish texts, these models classify content across five safety categories: Hate/Aggression, Vulgarities, Sexual Content, Crime, and Self-Harm. Our evaluation demonstrates that both models achieve strong performance on multiple benchmarks. The 0.5B variant offers the best overall discrimination capability with F1 scores of 0.791 (micro) and 0.785 (macro) on the test set, while the 0.1B variant demonstrates exceptional efficiency. Notably, Bielik Guard 0.1B v1.1 achieves superior precision (77.65\%) and very low false positive rate (0.63\%) on real user prompts, outperforming HerBERT-PL-Guard (31.55\% precision, 4.70\% FPR) despite identical model size. The models are publicly available and designed to provide appropriate responses rather than simple content blocking, particularly for sensitive categories like self-harm.