『SingularRadio - シンギュラーラジオ』のカバーアート

SingularRadio - シンギュラーラジオ

SingularRadio - シンギュラーラジオ

著者: Keisuke / Takeshi
無料で聴く

このコンテンツについて

SingularRadio(シンギュラーラジオ)は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 X アカウント:https://x.com/SingularRadio YouTube: https://www.youtube.com/@SingularRadioKeisuke / Takeshi
エピソード
  • #21 エージェント時代の主役はLLMではなくSLM!NVIDIA論文で読み解く“4つの理由”
    2025/09/12

    なぜ“エージェント時代”を担うのはLLMではなくSLM(小規模言語モデル)なのか。NVIDIA Research「Small language models are the future of agentic AI」をベースに徹底議論。精度の進歩・コスト効率・専門特化のしやすさ・アーキ設計(関数呼び出し/ツールコール)の観点から整理します。また、評価指標の不足やインフラ投資の慣性といった採用障壁にも触れ、現実的な意思決定のヒントを提案。後半は実務編として、SLMでのエージェント向けSFT/ファインチューニング手順をステップで解説します。参考論文リンクは下記にまとめました。▼参考リンク© Belcak, P., Heinrich, G., Diao, S., Fu, Y., Dong, X., Muralidharan, S., Lin, Y. C., Molchanov, P., 2025. “Small Language Models are the Future of Agentic AI,” arXiv:2506.02153 (v1, 2025-06-02). CC BY 4.0DOI: [https://doi.org/10.48550/arXiv.2506.02153](https://doi.org/10.48550/arXiv.2506.02153) /License: [https://creativecommons.org/licenses/by/4.0/](https://creativecommons.org/licenses/by/4.0/) 。© Bi, Z., Chen, K., Tseng, C.-Y., Zhang, D., Wang, T., Luo, H., Chen, L., Huang, J., Guan, J., Hao, J., Song, J., 2025. “Is GPT-OSS Good? A Comprehensive Evaluation of OpenAI’s Latest Open Source Models,” arXiv:2508.12461 (v1, 2025-08-17). CC BY 4.0 DOI: [https://doi.org/10.48550/arXiv.2508.12461](https://doi.org/10.48550/arXiv.2508.12461)License: [https://creativecommons.org/licenses/by/4.0/](https://creativecommons.org/licenses/by/4.0/) TIMESTAMPS:(00:00:00) オープニング(00:01:55) 論文の概要と重要性(00:03:30) なぜSLMか(4つの理由)(00:05:55) エージェントに必要な能力について(00:10:02) GPT OSS 20B vs 120B に関して(00:13:35) エージェントの時代は来るのか(00:17:29) エージェントで社会はどう変わる?~ オープンソースが勝つのか(00:22:43) SLMの導入への障壁となりうるもの(00:26:19) エージェントのためのファインチューニングSingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #ai #agent #llm #slm #小型モデル #nvidia #openai #aiエージェント

    続きを読む 一部表示
    34 分
  • #20【HRM】極小サイズのAIがGPTを超えた方法とは?話題の階層型推論モデルを日本一わかりやすく解説
    2025/09/12

    本動画は、階層的推論モデル(Hierarchical Reasoning Model; HRM)の核心を解説します。HRMは、層の“深さ”を時間方向の反復に置き換え、高頻度に更新される低レベル(L)と低頻度で全体計画を担う高レベル(H)を組み合わせ、ACT(適応的計算時間)で「どこまで考えるか」を動的に制御します。 学習面ではセグメントごとの1ステップ近似勾配によりメモリ使用を反復数に依存しないO(1)に抑え、長い思考展開を現実的に学習可能にします。 推論の停止はQ-learningで「今答える/続けて考える」を選び、難題ほど計算を配分し早すぎる収束を避けます。 生物学的示唆(STDP、混合選択性)との対応や、Sudokuでの伸び・ARCでの限界などの評価所見、汎用化や1ステップ近似の課題もあわせて整理します。SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 TIMESTAMPS:(00:00:00) オープニング(00:01:52) 階層的推論モデル(HRM)概要(00:04:45) TransformerとCoTの復習と課題(00:11:12) HRM解説開始(00:14:52) 全体設計と外側ループ・ACT(00:19:15) 内部構造と階層分け(高レベル・低レベル)(00:25:55) 1ステップ近似勾配・停止機構(00:30:21) なぜ精度が上がるのか?(00:34:44) 生物学的脳との類似点(00:39:03) 弱点と課題(00:42:56) まとめ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ 今回の引用元論文:© Wang, G., Li, J., Sun, Y., Chen, X., Liu, C., Wu, Y., Lu, M., Song, S., Abbasi Yadkori, Y., 2025. “Hierarchical Reasoning Model,” arXiv:2506.21734 (v3, 2025-08-04), Fig. X. CC BY 4.0 (No changes). DOI: https://doi.org/10.48550/arXiv.2506.21734 / License: https://creativecommons.org/licenses/by/4.0/ #hrm #階層型推論モデル #ai #llm #gpt #小型モデル #singularradio

    続きを読む 一部表示
    45 分
  • #19 ローカルLLM時代の今こそ知っておきたい!ファインチューニングの本質を数式を使わずに解説!
    2025/09/01

    小型LLMの精度向上に伴い、企業のLLMのファインチューニングに対する需要は過去になく高まっています。エージェントのツール選択最適化など実践的なファインチューニングの活用事例から、RAGやプロンプトとはどう異なるのか、具体的に内部では何が起こっているのか数学をできるだけ使わず解説します。PEFT/LoRAで“増設ツマミ”だけを調整する発想や、前層・中層・後層の役割の違いも俯瞰します。SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #finetuning #ai #llm #localllm #小型モデル #ローカルllm #rag #agent #aiagent #singularradio

    続きを読む 一部表示
    35 分
まだレビューはありません