LLM

AI News

Google、LLMのメモリ消費を大幅削減する新技術「TurboQuant」を発表

Googleが、LLMのメモリ消費を約6分の1に抑える新技術「TurboQuant」を発表。KVキャッシュを3ビット圧縮し、高速化も期待されます。
AI News

Wikipedia、LLMによる記事生成を原則禁止に

Wikimedia Foundationが、Wikipediaの記事作成や書き換えでのLLM利用を原則禁止とするガイドラインを公開。校正や一部翻訳は例外として認められます。