エピソード

  • #23 富士通の「生成AI再構成技術」(1ビット量子化/特化型AI蒸留)を徹底解説
    2025/09/19

    富士通の「1ビット量子化」と「特化型AI蒸留(Takane LLM)」によって、大型LLMのメモリ使用量を94%削減しつつ、推論速度を3倍に向上させ、精度89%を維持する手法を分かりやすく解説します。その背景にある量子化・蒸留・組合せ最適化の技術的チャレンジと、その克服方法を丁寧に掘り下げ、エッジAIや現場AIアシスタントの未来像について展望します。補足:1ビット量子化について 1ビットは「+か−」しか表せない極限の圧縮で、普通なら誤差が溜まって精度が落ちやすいです。そこで富士通は誤差伝播を補正したり、符号の扱いを工夫することで1ビットでも実用レベルにしています。 PQQAの並列について 動画では触れられませんでしたが、PQQAの“並列”はポイントです。複数の探索を同時に走らせ、それぞれが情報をやり取りしながら進む仕組みで、局所解にハマらずに高速に最適解へ近づけるようになっています。※本動画は上記資料をもとに制作者が独自に要約・解説したものであり、各機関・企業の公式見解を示すものではありません。動画の内容は学術的な紹介・教育的解説を目的としたものであり、誤りがある場合もあります。正確な情報は必ず原典をご参照ください。SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 TIMESTAMPS:(00:00:00) オープニング(00:00:57) 「生成AI再構成技術」とは(00:02:18) LLM肥大化の問題(00:03:21) 量子化と蒸留の基本概念(00:05:10) 量子化の仕組み(00:08:25) 量子化はなぜ難しい?(00:10:25) 量子化誤差伝搬法 - QEP (Quantization Error Propagation)(00:12:48) 並列擬似量子アニーリング - PQQA (Parallel Quasi-Quantum Annealing)(00:17:05) 富士通の量子化技術まとめ(00:22:02) 特化型AI蒸留(00:26:10) まとめ - どんな未来が来るか富士通の元記事(2025年9月8日リリース)はこちら:https://global.fujitsu/ja-jp/pr/news/2025/09/08-01QEP論文:Arai, Y., & Ichikawa, Y. (2025). Quantization Error Propagation: Revisiting Layer-Wise Post-Training Quantization. arXiv. https://doi.org/10.48550/arXiv.2504.09629PQQA論文:Ichikawa, Y., & Arai, Y. (2025). Optimization by Parallel Quasi-Quantum Annealing with Gradient-Based Sampling. In ICLR 2025 Poster. Retrieved from https://openreview.net/forum?id=9EfBeXaXf0▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #量子化 #1ビット量子化 #富士通レッドウェーブ 富士通 #takanellm #生成AI再構成技術 #蒸留 #特化型AI蒸留 #singularradio

    続きを読む 一部表示
    29 分
  • #21 エージェント時代の主役はLLMではなくSLM!NVIDIA論文で読み解く“4つの理由”
    2025/09/12

    なぜ“エージェント時代”を担うのはLLMではなくSLM(小規模言語モデル)なのか。NVIDIA Research「Small language models are the future of agentic AI」をベースに徹底議論。精度の進歩・コスト効率・専門特化のしやすさ・アーキ設計(関数呼び出し/ツールコール)の観点から整理します。また、評価指標の不足やインフラ投資の慣性といった採用障壁にも触れ、現実的な意思決定のヒントを提案。後半は実務編として、SLMでのエージェント向けSFT/ファインチューニング手順をステップで解説します。参考論文リンクは下記にまとめました。▼参考リンク© Belcak, P., Heinrich, G., Diao, S., Fu, Y., Dong, X., Muralidharan, S., Lin, Y. C., Molchanov, P., 2025. “Small Language Models are the Future of Agentic AI,” arXiv:2506.02153 (v1, 2025-06-02). CC BY 4.0DOI: [https://doi.org/10.48550/arXiv.2506.02153](https://doi.org/10.48550/arXiv.2506.02153) /License: [https://creativecommons.org/licenses/by/4.0/](https://creativecommons.org/licenses/by/4.0/) 。© Bi, Z., Chen, K., Tseng, C.-Y., Zhang, D., Wang, T., Luo, H., Chen, L., Huang, J., Guan, J., Hao, J., Song, J., 2025. “Is GPT-OSS Good? A Comprehensive Evaluation of OpenAI’s Latest Open Source Models,” arXiv:2508.12461 (v1, 2025-08-17). CC BY 4.0 DOI: [https://doi.org/10.48550/arXiv.2508.12461](https://doi.org/10.48550/arXiv.2508.12461)License: [https://creativecommons.org/licenses/by/4.0/](https://creativecommons.org/licenses/by/4.0/) TIMESTAMPS:(00:00:00) オープニング(00:01:55) 論文の概要と重要性(00:03:30) なぜSLMか(4つの理由)(00:05:55) エージェントに必要な能力について(00:10:02) GPT OSS 20B vs 120B に関して(00:13:35) エージェントの時代は来るのか(00:17:29) エージェントで社会はどう変わる?~ オープンソースが勝つのか(00:22:43) SLMの導入への障壁となりうるもの(00:26:19) エージェントのためのファインチューニングSingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #ai #agent #llm #slm #小型モデル #nvidia #openai #aiエージェント

    続きを読む 一部表示
    34 分
  • #20【HRM】極小サイズのAIがGPTを超えた方法とは?話題の階層型推論モデルを日本一わかりやすく解説
    2025/09/12

    本動画は、階層的推論モデル(Hierarchical Reasoning Model; HRM)の核心を解説します。HRMは、層の“深さ”を時間方向の反復に置き換え、高頻度に更新される低レベル(L)と低頻度で全体計画を担う高レベル(H)を組み合わせ、ACT(適応的計算時間)で「どこまで考えるか」を動的に制御します。 学習面ではセグメントごとの1ステップ近似勾配によりメモリ使用を反復数に依存しないO(1)に抑え、長い思考展開を現実的に学習可能にします。 推論の停止はQ-learningで「今答える/続けて考える」を選び、難題ほど計算を配分し早すぎる収束を避けます。 生物学的示唆(STDP、混合選択性)との対応や、Sudokuでの伸び・ARCでの限界などの評価所見、汎用化や1ステップ近似の課題もあわせて整理します。SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 TIMESTAMPS:(00:00:00) オープニング(00:01:52) 階層的推論モデル(HRM)概要(00:04:45) TransformerとCoTの復習と課題(00:11:12) HRM解説開始(00:14:52) 全体設計と外側ループ・ACT(00:19:15) 内部構造と階層分け(高レベル・低レベル)(00:25:55) 1ステップ近似勾配・停止機構(00:30:21) なぜ精度が上がるのか?(00:34:44) 生物学的脳との類似点(00:39:03) 弱点と課題(00:42:56) まとめ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ 今回の引用元論文:© Wang, G., Li, J., Sun, Y., Chen, X., Liu, C., Wu, Y., Lu, M., Song, S., Abbasi Yadkori, Y., 2025. “Hierarchical Reasoning Model,” arXiv:2506.21734 (v3, 2025-08-04), Fig. X. CC BY 4.0 (No changes). DOI: https://doi.org/10.48550/arXiv.2506.21734 / License: https://creativecommons.org/licenses/by/4.0/ #hrm #階層型推論モデル #ai #llm #gpt #小型モデル #singularradio

    続きを読む 一部表示
    45 分
  • #19 ローカルLLM時代の今こそ知っておきたい!ファインチューニングの本質を数式を使わずに解説!
    2025/09/01

    小型LLMの精度向上に伴い、企業のLLMのファインチューニングに対する需要は過去になく高まっています。エージェントのツール選択最適化など実践的なファインチューニングの活用事例から、RAGやプロンプトとはどう異なるのか、具体的に内部では何が起こっているのか数学をできるだけ使わず解説します。PEFT/LoRAで“増設ツマミ”だけを調整する発想や、前層・中層・後層の役割の違いも俯瞰します。SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #finetuning #ai #llm #localllm #小型モデル #ローカルllm #rag #agent #aiagent #singularradio

    続きを読む 一部表示
    35 分
  • #18 AIに寿命を与えるべきか。継続学習とAIの生物学的進化
    2025/08/22

    AIや人間にとって「忘れること」とは何を意味するのか。効率的に情報を扱うための取捨選択や、心を軽くする力、そして柔軟な発想を生む“忘却”の価値を考えます。さらに、生物が進化の過程で「寿命」という仕組みを通じて古い情報を手放し、新しい世代に知識や文化を継承してきたことにも触れます。AIにとって忘却は欠点ではなく、生物のように学び続け進化するために必要な一歩なのかもしれません。SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #継続学習 #忘却 #進化するAI #生成ai #singularradio

    続きを読む 一部表示
    22 分
  • #17 keep4o騒動とは何か?GPT-5導入とAI依存のリアル
    2025/08/15

    2025年8月、OpenAIが新モデル「GPT-5」を公開し、従来のGPT-4oを置き換えたことをきっかけに、SNSで「#keep4o」運動が広がりました。 多くのユーザーが、GPT-5の性能や応答の雰囲気の変化に戸惑い、旧モデル復活を求める声を上げています。本動画では、GPT-5の特徴、#keep4o運動の経緯、そしてAI依存がもたらす社会的・心理的影響について解説します。【本動画でわかること】・GPT-5公開の背景と新機能・GPT-4o廃止に伴うユーザー反発・#keep4o運動の拡大とOpenAIの対応・AI依存の現状とリスクSingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #keep4o #GPT5 #GPT-5 #AI依存 #OpenAI #ChatGPT #singularradio

    続きを読む 一部表示
    25 分
  • #16「データを集めずにAIを進化させる」連合学習(Federated Learning)とは何か?
    2025/08/07

    Federated Learning(連合学習)は、データを端末に残したままモデルを共同学習する技術です。プライバシー保護や通信コスト削減に優れ、医療・金融・IoT分野で注目されています。非IIDデータやセキュリティなどの課題にも対応が進んでいます。(00:00:00) オープニング (00:00:41) 連合学習とは(00:03:50) 連合学習の仕組み:モデル配布 → クライアント学習 → グローバルモデル計算(00:07:34) 起源とメリット:Gboard (Androidスマホ)・自動運転(00:11:50) 課題1:各端末のデータ分布が異なることで学習が収束しにくい(00:14:37) 課題2:ネットワーク品質や参加デバイス数の変動がモデル更新に影響(00:16:24) 課題3:勾配汚染と勾配盗聴(00:19:56) 課題4:端末によってはCPU/GPUが限られ、学習時間や精度にばらつき(00:21:38) 連合学習が活きる領域:企業間モデル(工場データなど)(00:23:52) ビッグテックの優位性が低下する?(00:27:29) よりパーソナライズされたAIが生まれる?(00:29:30) エンディングSingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #連合学習 #federatedlearning #生成ai #singularradio

    続きを読む 一部表示
    30 分
  • #15 生成AIの限界を超える鍵:世界モデルって簡単に言うとどんな技術?
    2025/08/01

    生成AIは「言葉」や「画像」を巧みに作れますが、“世界がどう動くか” までは理解していません。世界モデルは観測から物理・時間・因果を学び、AIに想像力と計画力を与える内部シミュレータ。これがあって初めて、ロボットは壊さず学び、サービスAIは現実の状況変化に即応できます。要するに 「予測できるAI」=次世代の必須基盤─ 産業から日常生活まで、知能を現実に解き放つ鍵です。SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #世界モデル #worldmodel #生成ai #llm #人工知能 #llm #ai #強化学習 #シュミレーション

    続きを読む 一部表示
    35 分