本文に飛ぶ
記事

Large Language Models における意図的な性能制限 JSAI2025 0

記事を表すアイコン

Large Language Models における意図的な性能制限

資料種別
記事
著者
岩井 皓暉ほか
出版者
-
出版年
2025
資料形態
デジタル
掲載誌名
人工知能学会全国大会論文集 JSAI2025 0
掲載ページ
p.1M3OS47a05-1M3OS47a05
すべて見る

資料詳細

要約等:

<p>Large Language Models (LLMs) possess the ability to perform well on unknown tasks and flexibly alter their behavior according to prompts. Leveragin...

全国の図書館の所蔵

国立国会図書館以外の全国の図書館の所蔵状況を表示します。

所蔵のある図書館から取寄せることが可能かなど、資料の利用方法は、ご自身が利用されるお近くの図書館へご相談ください

その他

書誌情報

この資料の詳細や典拠(同じ主題の資料を指すキーワード、著者名)等を確認できます。

デジタル

資料種別
記事
巻次・部編番号
JSAI2025
0
著者・編者
岩井 皓暉
熊谷 雄介
馬場 雪乃
出版年月日等
2025
出版年(W3CDTF)
2025
並列タイトル等
De-Tuning of Large Language Models
タイトル(掲載誌)
人工知能学会全国大会論文集
Proceedings of the Annual Conference of JSAI
巻号年月日等(掲載誌)
JSAI2025 0