エピソード

  • #27 AIエージェントのコンテキストをどう管理するか - Claude SkillsとDeepSeek-OCR
    2025/10/30

    SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 TIMESTAMPS:(00:00:00) オープニング(00:02:20) Claude Skills(00:29:00) DeepSeek-OCR▼運営会社(株式会社日本自動化技術)はこちら https://www.japan-automation-technology.comお仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #aiエージェント #claude #deepseek #singularradio

    続きを読む 一部表示
    49 分
  • #26 AI駆動開発の最前線|Claude Code・Codexで実践する“コンテキスト管理”の極意【現役海外大CS生が解説】
    2025/10/27

    最新AI駆動開発を実践デモで解説|Claude Skills・Claude Code・Codexの活用法AI駆動開発に必須のドキュメントをどう管理すべきか?AIが99%コードを書く時代に、人間が制すべき“文脈”とは?SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 ▼今回使ったスライドはこちらHPからご確認いただけます! https://www.japan-automation-technology.com/slides?source=youtube▼今回作ったプロジェクトはこちらhttps://github.com/Japan-Automation-Technology/MeetingTIMESTAMPS:(00:00:00) AI駆動開発について(00:01:51) なぜ今開発を学ぶのか?(00:03:35) 今開発力の差はどこにある?(00:08:10) 最強のコンテキスト管理術(00:16:28) codex × claude code 実践デモ(00:34:50) 開発後のプロジェクト・コンテキスト管理解説(00:46:39) Claude Agent Skillsについて/実践Agnet skill: https://www.anthropic.com/news/skills▼運営会社(株式会社日本自動化技術)はこちら https://www.japan-automation-technology.comお仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #singularradio #vibe coding #codex #claude code #バイブコーディング #AI駆動開発 #ドキュメント駆動開発

    続きを読む 一部表示
    59 分
  • #25【TRM】AI業界で大注目されているTRMを本格解説!HRMとの違いとその仕組みとは?
    2025/10/11

    HRMの動画はこちら:https://youtu.be/rHezsXZlzL8今回使用した論文はこちら:https://arxiv.org/html/2510.04871v1スライドはこちら:https://japan-automation-technology.vercel.app/slides今回は、Tiny Recursive Model (TRM)の論文を解説しました。2025年10月に発表されたTRMは、同年6月に発表されたHierarchical Reasoning Model(階層型推論モデル)の改良版としてSamsungから発表されました。700万パラメータというとても小さなサイズにも関わらず、GeminiやChatGPTなどの大規模言語モデルよりも高い精度で推論タスクを解けてしまったことで大きく取り上げられています。この動画では、その背景にあるHRMの基礎的概念と、TRMがもたらす将来へのインパクトについて語ります。SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 TIMESTAMPS:(00:00:00) オープニング:TRMとは?(00:02:07) HRM復習:概要(00:03:47) HRM復習:階層型システム(00:04:48) HRM復習:1ステップ近似勾配+Deep Supervision(00:08:14) HRM復習:ACT(適応的計算時間)(00:08:47) TRM:Tiny Recursive Model (極小再帰型モデル)(00:10:16) TRM:生物学的階層解釈の過剰さ(00:15:41) TRM:1ステップ近似勾配の妥当性(00:19:53) TRM:ACT(適応的計算時間)コスト(00:23:03) TRM:Less is More, Attention-free(00:27:12) まとめ:課題点・疑問点(00:34:00) まとめ:未来に向けて▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #trm #hrm #samsung #ai #slm #llm #singularradio

    続きを読む 一部表示
    37 分
  • #24 【Sora 2】OpenAIの最新動画モデルSoraを触ってみた!汎用動画モデルがもたらす未来とは?
    2025/10/02

    ご視聴ありがとうございます!▼今回使ったスライドはこちらからhttps://japan-automation-technology.vercel.app/slides/episodes/visual-reasoning-veo3?source=youtube▼AIに関する相談は問い合わせフォームからhttps://japan-automation-technology.vercel.app/contact?source=youtubeもしくはEメール: singularradio01@gmail.comLINEもあります:https://lin.ee/DEiPRxq今回は、話題のSora2の紹介と汎用動画モデルについて触れました。Sora2は動画モデル単体としての進化と、TikTokのようなアプリUXが非常に画期的です。また、日本のゲームやアニメのキャラクターが無断使用されているであろうことも大きく話題になっています。Google DeepMindから出た汎用動画モデルに関する論文では、LLMが辿った道を動画モデルが歩み始めているということが証明され始めています。感想コメントお待ちしております!今回使用したプロジェクトページ(Video models are zero-shot learners and reasoners):https://video-zero-shot.github.io/SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 TIMESTAMPS:(00:00:00) オープニング(00:00:54) Sora2アプリの実演紹介(00:05:35) Visual Reasoning(00:08:48) 動画モデルの能力を紹介(00:14:10) なぜ生成モデルは汎用化するのか(00:17:08) 汎用動画モデルがもたらす未来(00:25:51) まとめ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #sora #sora2 #openai #videomodels #google #deepmind #llm #singularradio

    続きを読む 一部表示
    30 分
  • #23 【A2A×A2P】Google発AIエージェントの“最前線” を徹底解説!最新プロトコルから読み解くAI×決済の未来
    2025/09/26

    AIエージェントが人の代わりに支払いまでしてくれる未来を実現するための約束事―Google発のプロトコル【A2AとAP2】から読み解く未来の社会を徹底解説。▼今回使ったスライドはこちらHPからご確認いただけます! https://japan-automation-technology.vercel.app/slides?source=youtubeTIMESTAMPS:(00:00:00) AIに決裁権限を与える必要性?(00:02:19) A2Aって何?(00:03:49) A2AとMCPの違い(00:05:14) なぜ今A2Aが必要になってきたのか(00:08:15) A2Aはどうやって公開する?(00:12:55) AP2の公式デモ(00:18:19) AP2の詳細(00:30:37) AP2が実現した社会はどうなる?(00:44:32) AP2の段階導入方法参考:- Google AP2 announcement: https://cloud.google.com/blog/products/ai-machine-learning/announcing-agents-to-payments-ap2-protocol- A2A Registry (コミュニティ型ディレクトリ):https://github.com/prassanna-ravishankar/a2a-registryオープンソースプロジェクト「A2A Registry」。稼働中のエージェントをJSONベースで登録・検索できるサービスで、GitHub上のレポジトリ経由で参加申請(Agent Card提出)を行う仕組み。GitHub ActionsでAgentCardのA2A仕様準拠や所有者確認を自動検証し、承認エージェントのみ一覧公開。2025年8月時点でグローバルに数十エージェントが登録され、スキルタグ検索等に対応。今後この仕組みがLinux Foundation配下に取り込まれ公式ディレクトリになる可能性もあります。お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #singularradio #llm #aiエージェント #ai #a2a #ap2 #mcp

    続きを読む 一部表示
    52 分
  • #22 富士通の「生成AI再構成技術」(1ビット量子化/特化型AI蒸留)を徹底解説
    2025/09/19

    富士通の「1ビット量子化」と「特化型AI蒸留(Takane LLM)」によって、大型LLMのメモリ使用量を94%削減しつつ、推論速度を3倍に向上させ、精度89%を維持する手法を分かりやすく解説します。その背景にある量子化・蒸留・組合せ最適化の技術的チャレンジと、その克服方法を丁寧に掘り下げ、エッジAIや現場AIアシスタントの未来像について展望します。補足:1ビット量子化について 1ビットは「+か−」しか表せない極限の圧縮で、普通なら誤差が溜まって精度が落ちやすいです。そこで富士通は誤差伝播を補正したり、符号の扱いを工夫することで1ビットでも実用レベルにしています。 PQQAの並列について 動画では触れられませんでしたが、PQQAの“並列”はポイントです。複数の探索を同時に走らせ、それぞれが情報をやり取りしながら進む仕組みで、局所解にハマらずに高速に最適解へ近づけるようになっています。※本動画は上記資料をもとに制作者が独自に要約・解説したものであり、各機関・企業の公式見解を示すものではありません。動画の内容は学術的な紹介・教育的解説を目的としたものであり、誤りがある場合もあります。正確な情報は必ず原典をご参照ください。SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 TIMESTAMPS:(00:00:00) オープニング(00:00:57) 「生成AI再構成技術」とは(00:02:18) LLM肥大化の問題(00:03:21) 量子化と蒸留の基本概念(00:05:10) 量子化の仕組み(00:08:25) 量子化はなぜ難しい?(00:10:25) 量子化誤差伝搬法 - QEP (Quantization Error Propagation)(00:12:48) 並列擬似量子アニーリング - PQQA (Parallel Quasi-Quantum Annealing)(00:17:05) 富士通の量子化技術まとめ(00:22:02) 特化型AI蒸留(00:26:10) まとめ - どんな未来が来るか富士通の元記事(2025年9月8日リリース)はこちら:https://global.fujitsu/ja-jp/pr/news/2025/09/08-01QEP論文:Arai, Y., & Ichikawa, Y. (2025). Quantization Error Propagation: Revisiting Layer-Wise Post-Training Quantization. arXiv. https://doi.org/10.48550/arXiv.2504.09629PQQA論文:Ichikawa, Y., & Arai, Y. (2025). Optimization by Parallel Quasi-Quantum Annealing with Gradient-Based Sampling. In ICLR 2025 Poster. Retrieved from https://openreview.net/forum?id=9EfBeXaXf0▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #量子化 #1ビット量子化 #富士通レッドウェーブ 富士通 #takanellm #生成AI再構成技術 #蒸留 #特化型AI蒸留 #singularradio

    続きを読む 一部表示
    29 分
  • #21 エージェント時代の主役はLLMではなくSLM!NVIDIA論文で読み解く“4つの理由”
    2025/09/12

    なぜ“エージェント時代”を担うのはLLMではなくSLM(小規模言語モデル)なのか。NVIDIA Research「Small language models are the future of agentic AI」をベースに徹底議論。精度の進歩・コスト効率・専門特化のしやすさ・アーキ設計(関数呼び出し/ツールコール)の観点から整理します。また、評価指標の不足やインフラ投資の慣性といった採用障壁にも触れ、現実的な意思決定のヒントを提案。後半は実務編として、SLMでのエージェント向けSFT/ファインチューニング手順をステップで解説します。参考論文リンクは下記にまとめました。▼参考リンク© Belcak, P., Heinrich, G., Diao, S., Fu, Y., Dong, X., Muralidharan, S., Lin, Y. C., Molchanov, P., 2025. “Small Language Models are the Future of Agentic AI,” arXiv:2506.02153 (v1, 2025-06-02). CC BY 4.0DOI: [https://doi.org/10.48550/arXiv.2506.02153](https://doi.org/10.48550/arXiv.2506.02153) /License: [https://creativecommons.org/licenses/by/4.0/](https://creativecommons.org/licenses/by/4.0/) 。© Bi, Z., Chen, K., Tseng, C.-Y., Zhang, D., Wang, T., Luo, H., Chen, L., Huang, J., Guan, J., Hao, J., Song, J., 2025. “Is GPT-OSS Good? A Comprehensive Evaluation of OpenAI’s Latest Open Source Models,” arXiv:2508.12461 (v1, 2025-08-17). CC BY 4.0 DOI: [https://doi.org/10.48550/arXiv.2508.12461](https://doi.org/10.48550/arXiv.2508.12461)License: [https://creativecommons.org/licenses/by/4.0/](https://creativecommons.org/licenses/by/4.0/) TIMESTAMPS:(00:00:00) オープニング(00:01:55) 論文の概要と重要性(00:03:30) なぜSLMか(4つの理由)(00:05:55) エージェントに必要な能力について(00:10:02) GPT OSS 20B vs 120B に関して(00:13:35) エージェントの時代は来るのか(00:17:29) エージェントで社会はどう変わる?~ オープンソースが勝つのか(00:22:43) SLMの導入への障壁となりうるもの(00:26:19) エージェントのためのファインチューニングSingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ #ai #agent #llm #slm #小型モデル #nvidia #openai #aiエージェント

    続きを読む 一部表示
    34 分
  • #20【HRM】極小サイズのAIがGPTを超えた方法とは?話題の階層型推論モデルを日本一わかりやすく解説
    2025/09/12

    本動画は、階層的推論モデル(Hierarchical Reasoning Model; HRM)の核心を解説します。HRMは、層の“深さ”を時間方向の反復に置き換え、高頻度に更新される低レベル(L)と低頻度で全体計画を担う高レベル(H)を組み合わせ、ACT(適応的計算時間)で「どこまで考えるか」を動的に制御します。 学習面ではセグメントごとの1ステップ近似勾配によりメモリ使用を反復数に依存しないO(1)に抑え、長い思考展開を現実的に学習可能にします。 推論の停止はQ-learningで「今答える/続けて考える」を選び、難題ほど計算を配分し早すぎる収束を避けます。 生物学的示唆(STDP、混合選択性)との対応や、Sudokuでの伸び・ARCでの限界などの評価所見、汎用化や1ステップ近似の課題もあわせて整理します。SingularRadio(シンギュラーラジオ) は、テクノロジー、イノベーション、社会の未来について、深い知識と洞察を提供するポッドキャストです。 海外大(ブリティッシュコロンビア大学)でコンピュータサイエンスを専攻するKeisukeとTakeshiのホスト二人が、AI、ロボティクス、スタートアップ、経済などの最前線で起きている出来事を掘り下げ、知的好奇心を刺激する内容をお届けします。 TIMESTAMPS:(00:00:00) オープニング(00:01:52) 階層的推論モデル(HRM)概要(00:04:45) TransformerとCoTの復習と課題(00:11:12) HRM解説開始(00:14:52) 全体設計と外側ループ・ACT(00:19:15) 内部構造と階層分け(高レベル・低レベル)(00:25:55) 1ステップ近似勾配・停止機構(00:30:21) なぜ精度が上がるのか?(00:34:44) 生物学的脳との類似点(00:39:03) 弱点と課題(00:42:56) まとめ▼運営会社(株式会社日本自動化技術)はこちら https://japan-automation-technology.vercel.app お仕事の御依頼は上記HPのお問い合わせフォームまたはsingularradio01@gmail.comまでご連絡ください。 Apple Podcast: https://podcasts.apple.com/us/podcast/id1809437976 Spotify: ⁠https://open.spotify.com/show/2nOYrpc9PhKQ5v7s81KzCW X (Twitter) アカウント:⁠https://x.com/SingularRadio⁠ 今回の引用元論文:© Wang, G., Li, J., Sun, Y., Chen, X., Liu, C., Wu, Y., Lu, M., Song, S., Abbasi Yadkori, Y., 2025. “Hierarchical Reasoning Model,” arXiv:2506.21734 (v3, 2025-08-04), Fig. X. CC BY 4.0 (No changes). DOI: https://doi.org/10.48550/arXiv.2506.21734 / License: https://creativecommons.org/licenses/by/4.0/ #hrm #階層型推論モデル #ai #llm #gpt #小型モデル #singularradio

    続きを読む 一部表示
    45 分