
Sign up to save your podcasts
Or
LayerX名村氏によるAIエージェントに関する発表資料です。
引用元: https://speakerdeck.com/layerx/ai-agents-practice-202503
Inception Labsが開発したMercury Coderは、Diffusion Model(拡散モデル)をベースにした新しいLLMです。従来のTransformerモデルと異なり、ノイズ除去のプロセスでテキストを生成します。これにより、NVIDIA H100 GPU上でGPT-4の最大10倍の速度でテキストを生成できます。特にコード生成に優れており、高速なプログラミング支援が可能です。今後の展望として、チャットボットへの応用も期待されています。
引用元: https://zenn.dev/acntechjp/articles/8827db27237c8a
IBMが企業向けLLM「Granite 3.2」を発表。推論機能向上が特徴で、CoT推論という手法で複雑な問題を分割、人間のような推論を目指しています。特に、TPOフレームワークにより、推論能力を高めつつ、タスク全体の性能を維持。また、ドキュメント理解に特化したVLMも導入し、大量のPDFデータで学習させています。さらに、長期予測が可能なTiny Time Mixerモデルも提供。これらのモデルはHugging Face等で公開されており、Apache License 2.0で利用可能です。
引用元: https://japan.zdnet.com/article/35229974/
OpenAIの最高研究責任者がGPT-4.5でASCIIアート生成能力が向上したと発言。実際に初音ミクのASCIIアートを生成させたところ、「やる夫」風のものが生成され、SNSで話題になっています。期待されたほどの出来ではなかったようです。
引用元: https://togetter.com/li/2520076
(株式会社ずんだもんは架空の登場組織です)
LayerX名村氏によるAIエージェントに関する発表資料です。
引用元: https://speakerdeck.com/layerx/ai-agents-practice-202503
Inception Labsが開発したMercury Coderは、Diffusion Model(拡散モデル)をベースにした新しいLLMです。従来のTransformerモデルと異なり、ノイズ除去のプロセスでテキストを生成します。これにより、NVIDIA H100 GPU上でGPT-4の最大10倍の速度でテキストを生成できます。特にコード生成に優れており、高速なプログラミング支援が可能です。今後の展望として、チャットボットへの応用も期待されています。
引用元: https://zenn.dev/acntechjp/articles/8827db27237c8a
IBMが企業向けLLM「Granite 3.2」を発表。推論機能向上が特徴で、CoT推論という手法で複雑な問題を分割、人間のような推論を目指しています。特に、TPOフレームワークにより、推論能力を高めつつ、タスク全体の性能を維持。また、ドキュメント理解に特化したVLMも導入し、大量のPDFデータで学習させています。さらに、長期予測が可能なTiny Time Mixerモデルも提供。これらのモデルはHugging Face等で公開されており、Apache License 2.0で利用可能です。
引用元: https://japan.zdnet.com/article/35229974/
OpenAIの最高研究責任者がGPT-4.5でASCIIアート生成能力が向上したと発言。実際に初音ミクのASCIIアートを生成させたところ、「やる夫」風のものが生成され、SNSで話題になっています。期待されたほどの出来ではなかったようです。
引用元: https://togetter.com/li/2520076
(株式会社ずんだもんは架空の登場組織です)