エピソード

  • 株式会社ずんだもん技術室AI放送局 podcast 20260310
    2026/03/09
    youtube版(スライド付き) 関連リンク Copilot Cowork: A new way of getting work done Microsoftが発表した「Copilot Cowork」は、AIとの関わり方を「単なるチャット」から「自律的なアクションの実行」へと進化させる画期的な新機能です。これまでのAIアシスタントは質問に答えたり文章の下書きを作ったりするのが主な役割でしたが、Copilot Coworkはユーザーに代わってMicrosoft 365上の複雑なタスクを計画・実行する「エージェント」としての側面を強く持っています。 技術的な基盤として、Microsoft 365全体の信号(メール、会議、ファイル、データなど)を統合して理解する「Work IQ」を活用しています。これにより、AIはユーザーの業務背景を深く理解した状態で、以下のような具体的なアクションを自律的に進めることが可能になります。 カレンダーの自動整理: 優先順位に基づき、会議の調整や集中時間の確保を自動で行います。会議の準備とフォロー: 関連資料からブリーフィング文書やスライドを生成し、チームへの共有まで完了させます。高度なリサーチ: 公開情報や社内データを収集・分析し、引用元を明示したレポートやExcelワークブックとしてまとめます。プロジェクト計画の策定: 競合分析から資料作成、マイルストーンの設定までを一貫して行います。 特筆すべきは、これらの作業が「バックグラウンド」で進行する点です。ユーザーがAIの提案した実行プランを承認すると、AIは裏側でタスクを進め、必要に応じてユーザーにチェックポイントでの確認を求めます。これにより、エンジニアやビジネスパーソンは「自分にしかできない創造的な仕事」に集中できるようになります。 また、インフラ面ではAnthropic社の「Claude Cowork」の技術を統合しており、特定のAIモデルに依存せず、タスクごとに最適なモデルを選択して実行するマルチモデル戦略をとっています。セキュリティ面でもエンタープライズレベルのガバナンスが適用され、サンドボックス環境で安全に動作します。 新人エンジニアにとって、このニュースは「AIをどう使いこなすか」から「AIというチームメンバーにどう仕事を任せるか」という、次世代のソフトウェア活用の形を示唆しています。本機能は2026年3月末より、Frontierプログラムを通じて順次提供が開始される予定です。 引用元: https://www.microsoft.com/en-us/microsoft-365/blog/2026/03/09/copilot-cowork-a-new-way-of-getting-work-done/ Qwen3.5-9B:9Bクラスで異常な高性能を発揮するマルチモーダル軽量モデル 2026年3月、AlibabaのQwenチームが公開した「Qwen3.5-9B」が、AIコミュニティで「バグレベルの高性能」と大きな注目を集めています。このモデルは9B(90億パラメータ)という、一般的なPCでも動作可能な軽量サイズでありながら、かつての巨大モデル(120B級)に匹敵する驚異的な知能を備えています。 技術的な特徴として、まず「Gated Delta Networks(線形注意機構)」と「sparse MoE(疎な混合エキスパート)」を組み合わせたハイブリッドアーキテクチャが挙げられます。これにより、非常に高い推論効率を実現しており、RTX 4090などのコンシューマ向けGPUでも爆速で動作します。また、コンテキスト長はネイティブで約26万トークン、最大で100万トークンまで拡張可能となっており、長大なドキュメント解析やソースコードの理解にも最適です。 さらに、本モデルは「ネイティブ視覚言語モデル」として設計されており、テキスト・画像・動画を高度に融合して理解できます。特に動画理解においては字幕も考慮した解析が可能で、小型モデルとは思えない視覚理解力を誇ります。また、内部的に「」タグを用いた思考プロセス(Chain-of-Thought)を生成する仕組みがデフォルトで備わっており、論理的な正確性や指示追従能力が極めて高いのが特徴です。 多言語対応についても、日本語を含む201の言語・方言をサポートしており、特にアジア圏の言語において高い精度を発揮します。ライセンスはApache 2.0で、商用利用も自由です。 実際の評価では、数学、論理推論、プログラミング、指示追従といった主要なベンチマークで、同クラスのLlama 3.1-8BやGemma-3-9Bを大きく上回るスコアを記録しています。...
    続きを読む 一部表示
    1分未満
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20260309
    2026/03/08
    関連リンク 手動でのコーディングをやめていく際のメモ 本書は、圧倒的な能力を持つ「Claude Opus 4.6」の登場をきっかけに、エンジニアのアイデンティティであった「自らコードを書くこと」を手放し、AIエージェント(Coding Agent)と全面的に協働するスタイルへ移行した実践的な記録です。新人エンジニアの方にとっても、これからの開発の「当たり前」を知る上で非常に示唆に富む内容となっています。 移行にあたり、著者は以下の2つの大きな方針を立てました。 あらゆる業務のドキュメント化 AIは人間と比べてコンテキスト(文脈)を保持し続ける能力が劣るため、実装方針のブレを防ぐ必要があります。そのため、あらゆる情報を/docsディレクトリに保管し、AIが常に参照できるようにしました。さらに、過去のセッション情報をAIが自ら検索できる仕組みを構築し、情報の非対称性を解消しています。 人間とAIの役割分担(境界線)の明確化 AIに丸投げするのではなく、責任の所在と得意分野を整理しています。 人間の役割: 要件・仕様の整理、ビジネスの核となる「ドメイン設計」、AIへの指示と成果の受け入れ、そしてコードの最終的なレビューです。AIには「良いものを作りたい」という内発的な動機がないため、人間が明確な信念を持って成果物をジャッジする必要があります。AIの役割: アプリケーションの具体的な設計・実装・デプロイ、および自分自身が動きやすいようにするための環境整備(静的解析やテストの自動化など)を担当します。 実際の運用では、開発ツールを「Cursor」から「Claude Code(AI本体)」を主軸に据え、Cursorはコードを確認するための「ビューワー」として利用するスタイルに変更されました。Git操作やデプロイといったCLIで行う作業もすべてAI経由で行うことが推奨されています。 このスタイルに移行した結果、1日あたりのプルリクエスト(PR)作成数が従来の2倍(1〜2個から3〜4個)に増加し、コード品質も維持できているという驚くべき成果が出ています。 一方で、人間がやらなければならない「退屈な作業」も浮き彫りになりました。それは、AIがアクセスできない情報(口頭でのやり取りやCLIで触れない外部サービスの情報)をAIに伝達する「橋渡し」の作業です。 これからのエンジニアには、単にコードを書くスキル以上に、AIを「部下」や「パートナー」として使いこなし、システムの全体像を設計・管理する「監督」のような視点が求められるようになるでしょう。 引用元: https://zenn.dev/koyo_k0/articles/c4f90b2ff722e0 New Research Reassesses the Value of AGENTS.md Files for AI Coding AIコーディングエージェント(ClaudeやCursor等)にプロジェクトの文脈を伝えるため、AGENTS.mdや.cursorrules、CLAUDE.mdといった「指示ファイル」をリポジトリに配置する手法が急速に普及しています。しかし、チューリッヒ工科大学(ETH Zurich)の最新の研究により、これらのファイルが必ずしもAIのパフォーマンスを向上させず、場合によっては逆効果になるという衝撃的な実証結果が報告されました。 研究チームは、既存のベンチマークがAIに学習されている可能性を考慮し、138件のリアルなPythonタスクを含む独自のデータセット「AGENTbench」を構築。Claude 3.5 SonnetやGPT-5(プレビュー版)などの主要モデルを用い、「指示ファイルなし」「AI生成のファイルあり」「人間が書いたファイルあり」の3パターンで、タスク成功率と推論コスト(ステップ数)を検証しました。 1. 研究で明らかになった驚きの事実 AI生成の指示ファイルは「有害」な場合も:AIが自動生成したコンテキストファイルを使用すると、タスクの成功率が平均3%低下しました。それだけでなく、AIが無駄な手順を踏むようになり、推論コストが20%以上も増大しました。人間が書いたファイルでもコスト増:人間が作成したファイルは成功率を平均4%向上させましたが、手順数は増え、コストが最大19%増加しました。「過剰な思考」の罠:AIの思考プロセスを分析したところ、AIが指示ファイルの記述を忠実に守ろうとするあまり、不要なテストの実行、過度なファイル探索、冗長なコード品質チェックを繰り返...
    続きを読む 一部表示
    1分未満
  • 私立ずんだもん女学園放送部 podcast 20260306
    2026/03/05
    youtube版(スライド付き) 関連リンク skill-creatorから学ぶSkill設計と、Orchestration Skillの作り方 本記事は、Anthropicが提唱する「Agent Skills(エージェント・スキル)」の設計思想と、そのベストプラクティスを解説したドキュメントです。特に、スキル作成を支援するメタスキル「skill-creator」の構造を分析し、複雑なタスクをこなす「オーケストレーション型スキル」の作り方を、新人エンジニアにも分かりやすく提示しています。 1. Agent Skillsの基本と「段階的開示」 Agent Skillsとは、AIエージェントに特定のワークフローや知識を教える命令セットです。設計の核心は「Progressive Disclosure(段階的開示)」にあります。 AIの記憶領域(コンテキストウィンドウ)は限られた「公共財」であるため、最初から全ての情報を読み込ませるのではなく、必要に応じて3段階で情報をロードします。 Level 1: スキル名と説明(常に読み込む。トリガー判定用)Level 2: メインの指示(スキル発動時に読み込む)Level 3: スクリプトや参照資料(実行時に必要になったら読み込む) 2. 失敗しないスキル設計の7つのベストプラクティス 「skill-creator」の構造から、以下の汎用的な設計パターンが学べます。 指示の委譲: メインの指示書(SKILL.md)は司令塔に徹し、専門的な処理はサブエージェントに任せる。スクリプトの活用: ループや計算、ファイル操作など、AIが苦手な「確定的処理」はプログラム(Python等)に外出しする。スキーマ契約: AIとプログラムの間でやり取りするJSON形式を厳密に定義し、連携ミスを防ぐ。Why-driven設計: 「絶対〜しろ」と命令するだけでなく「なぜそれが必要か(理由)」を説明することで、AIの柔軟な対応を引き出す。Description(説明文)の最適化: 説明文が悪いとスキルが起動すらしないため、トリガー条件を具体的に記述する。チャット外での連携: 大量のデータ評価など、チャットUIでは難しい作業は専用のHTMLビューアなどを生成して行う。移植性の確保: 実行環境の制約(並列処理ができるか等)に応じて、自動で処理を切り替える工夫をする。 3. 2つのオーケストレーション戦略 複雑な処理をまとめる際、記事では2つのアプローチを比較しています。 Sub-agent型: 1つの親スキルが、複数の「子のAI」を生成して並列で動かす。評価や分析を同時に行いたい場合に有効。Skill Chain型: 独立した小さなスキルを「数珠繋ぎ」にしてパイプラインを作る。調査、実行、レポート作成など、手順が直列で決まっている場合に適している。 結論 これからのスキル開発は、単なる「プロンプトの束」ではなく、制御フロー、専門ロジック、データ契約、UIを持つ「小さなソフトウェア」として設計することが求められます。この構造化を意識することで、より信頼性が高く、メンテナンスしやすいAIエージェントを構築できるようになります。 引用元: https://nyosegawa.github.io/posts/skill-creator-and-orchestration-skill/ MCPはなぜCLIに負けたのか —— 経緯と構造を整理する 2024年にAnthropicが発表したMCP(Model Context Protocol)は、当初「AIとツールの架け橋」として業界を席巻しましたが、2026年現在ではCLI(コマンドラインインターフェース)に対してその優位性を失いつつあります。本記事は、なぜMCPが短期間でCLIに追い抜かれたのか、その構造的な背景を分析しています。 【MCP誕生の背景:モデルの「能力不足」】 2024年11月時点のAIモデルは、ツールの入出力を自力で解釈する能力が不安定でした。そのため、MCPはモデルとツールの間にJSON-RPCベースの仲介層を置き、構造化されたデータ(スキーマ)で「何ができるか」を明示的に教える「補助輪」としての役割を果たしました。 【モデルの進化が前提を壊した】 2025年以降、推論能力が飛躍的に向上した新世代モデル(Opus 4.6等)が登場しました。これらのモデルは、manページやヘルプテキストを読むだけで適切なコマンドを組み立て、エラーが発生しても自律的に修正できる能力を獲得しました。結果として、モデル側の進化が「構造化された仲介層」というMCPの必要性を解消してしまいました。 【トークン効率と運用コストの壁】 実運用におけるCLIとの比較...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260305
    2026/03/04
    youtube版(スライド付き) 関連リンク LangChain Skills LangChain社は、AIコーディングエージェントがLangChainエコシステム(LangChain、LangGraph、Deep Agents)をより正確に扱えるようにするための専門知識パッケージ「Skills(スキル)」の第一弾をリリースしました。 近年の開発現場では「Claude Code」のようなAIエージェントがコードを生成・修正する場面が増えていますが、今回リリースされた「Skills」を導入することで、LangChainに関連するタスクの成功率が従来の29%から95%へと劇的に向上することが確認されています。 「Skills」とは何か? 新人エンジニアの方にとって、AIエージェントは非常に頼もしい存在ですが、エージェントに「あれもこれも」と大量のツールや指示を与えすぎると、かえって混乱して性能が落ちてしまうという課題(ツールの過負荷)がありました。 「Skills」は、この問題を解決するために設計されています。 必要な時だけ読み込む: 「動的ロード(Progressive Disclosure)」という仕組みを採用しており、エージェントは現在取り組んでいるタスクに関係があるスキルだけを、その都度取り出して使用します。ポータブルな形式: Markdownファイルやスクリプトで構成されており、特定のプラットフォームに依存せず、スキル機能をサポートする様々なエージェントで共有・利用が可能です。 提供される主なスキル 現在、GitHubの「langchain-skills」リポジトリでは、大きく分けて3つのカテゴリーで11個のスキルが提供されています。 LangChain: クラシックなエージェント構成やツール呼び出しのパターンに関するガイド。LangGraph: 状態管理や「Human-in-the-loop(人間の介在)」、実行の永続化など、高度なエージェント制御に関するガイド。DeepAgents: ファイルシステム操作や事前定義されたミドルウェアを活用するためのガイド。 まとめと今後の展望 今回のリリースにより、AIエージェントは「LangChainをどう使えばいいか」というドキュメントを読み解く段階を超え、最初から「使い方のコツ」を習得した状態で開発をサポートしてくれるようになります。 今後はLangSmith(評価・運用プラットフォーム)向けのスキル追加も予定されており、エージェントによる開発の自動化がさらに加速していくことが期待されます。エンジニアにとっては、エージェントのセットアップがより簡単になり、より本質的な設計やロジック構築に集中できる環境が整いつつあります。 引用元: https://blog.langchain.com/langchain-skills/ #3|AIが自走し、人間は管制する — Pilot-Tower開発の設計思想 本記事は、AI駆動開発における人間とAIの役割分担を「航空管制」になぞらえた次世代の開発手法「Pilot-Tower(P&T)開発」の設計思想を解説しています。 従来のAI活用(Phase 2)では、人間が運転席に座りAIに個別の指示を出していましたが、これではAIの稼働時間が人間の活動時間に縛られるという限界がありました。P&T開発(Phase 3)では、AIを「パイロット(操縦士)」、人間を「タワー(管制塔)」と定義し、AIが自律的に計画・実装・検証を進め、人間は要所での判断のみを行う構造への転換を目指します。 【設計の核心:上流と下流の境界を溶かす】 「仕様を固めてから実装する」という直列なプロセスではなく、要件定義・設計・実装を同時並行で回す「探索的ループ」を重視しています。AIは以下の3つのモードを使い分け、不確実性を段階的に排除します。 plan-refine: 対話による計画の詳細化。plan-spike: 仮実装による技術検証。コードは捨てるが知見を蓄積する。plan-execute: 検証済みの計画に基づく本実装。 これらを通じて、AI自身が読み書きし、自律判断の根拠とする「生きたドキュメント(plan.md)」を育てていきます。 【自走と統制を両立する3つの仕掛け】 AIに自律性を与えつつ、制御不能になるのを防ぐための仕組みが導入されています。 ループ構造: AIが計画・実行・ログ記録・課題抽出を自律的に繰り返すサイクル。Decision Required (DR): AIが判断に迷う箇所で停止し、人間にA/B案と推奨案を提示する仕組み。人間は「選択」するだけで管制が可能です。ガードレール: セキュリティや決済など、AIが独断で触...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260304
    2026/03/03
    youtube版(スライド付き) 関連リンク GPT-5.3 Instant: Smoother, more useful everyday conversations OpenAIは2026年3月3日、ChatGPTで最も利用されているモデルの最新アップデート版「GPT-5.3 Instant」をリリースしました。このモデルは、ベンチマークの数値だけでは測れない「日常的な対話の質」に焦点を当てており、より自然で、かつ的確な回答が可能になっています。新人エンジニアの方にとっても、AIとの対話やプログラミング補助において、よりストレスの少ない体験が期待できる内容です。 主な改善点は以下の4点です。 過剰な拒否や注釈(説教)の削減 従来のモデル(GPT-5.2 Instant)は、安全性を考慮しすぎるあまり、単純な質問に対しても長い警告文や道徳的な前置きを付け加える傾向がありました。5.3ではこれが大幅に改善され、ユーザーの意図を汲み取って直接的な回答を返すよう調整されています。これにより、対話のテンポが損なわれなくなりました。 Web検索情報の統合精度の向上 Web検索を利用した回答の際、単に検索結果を要約するだけでなく、モデルが持つ既存の知識と検索情報をより高度に融合させることができるようになりました。最新のニュースを既存の文脈に当てはめて解説する能力が向上し、情報の優先順位付けも洗練されています。 より自然で簡潔な対話スタイル 「深呼吸して」「落ち着いて」といった過剰な配慮や、不自然な決めつけが減少しました。よりフォーカスされた自然なトーンになり、設定から温かみや熱意の調整も可能になっています。ただし、日本語や韓国語においては、まだ表現が硬かったり直訳調になったりする課題が残っており、今後の改善課題とされています。 ハルシネーション(事実誤認)の低減 内部評価において、医療や法律といった高リスク領域でのハルシネーション率が、Web利用時で26.8%、内部知識のみで19.7%減少しました。ユーザーからのフィードバックに基づいた評価でも約10〜22%の精度向上が確認されており、情報の信頼性が高まっています。 エンジニア向けの提供情報 APIでは既に「gpt-5.3-chat-latest」として利用可能です。今後「Thinking」や「Pro」モデルへのアップデートも予定されています。なお、旧モデルであるGPT-5.2 Instantは、2026年6月3日までレガシーモデルとして提供された後に廃止される予定です。 今回のアップデートは、AIを単なる「検索機」や「ツール」としてではなく、より「意図を理解してくれるパートナー」へと進化させる重要なステップと言えます。 引用元: https://openai.com/index/gpt-5-3-instant Gemini 3.1 Flash-Lite: Built for intelligence at scale Google DeepMindは、Gemini 3シリーズにおいて最も高速かつコスト効率に優れた新モデル「Gemini 3.1 Flash-Lite」をプレビュー公開しました。このモデルは、大量のデータを処理する必要がある開発者向けに設計されており、高い知能を維持しながら圧倒的なスループットを実現しています。 1. 圧倒的なコストパフォーマンスとスピード Gemini 3.1 Flash-Liteの最大の特徴は、その経済性と速さです。価格は入力100万トークンあたり0.25ドル、出力100万トークンあたり1.50ドルと非常に安価に設定されています。性能面では、従来のGemini 2.5 Flashと比較して「最初のトークンが出るまでの時間(TTFT)」が2.5倍高速化され、全体の出力速度も45%向上しました。これにより、リアルタイム性が重視されるレスポンシブなアプリケーション開発が容易になります。 2. 軽量モデルの常識を覆す高い知能 「Lite(軽量)」という名称ながら、その能力は極めて強力です。Arena.aiのリーダーボードではEloスコア1432を記録。推論能力を測るGPQA Diamond(86.9%)や、マルチモーダル理解を測るMMMU Pro(76.8%)といった主要ベンチマークにおいて、前世代の標準モデルである2.5 Flashを上回る精度を達成しています。 3. 柔軟な制御を可能にする「Thinking levels」 開発者は、Google AI StudioやVertex AIを通じて、モデルの「思考レベル(Thinking levels)」を調整できます。これにより、タスクの内容に合わせて「どれくらい深く推論させるか」を柔軟に選択できるようになりました。コストを優先したい高頻度の単純作業から、深い洞察が必要な...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260303
    2026/03/02
    youtube版(スライド付き) 関連リンク Microsoft Copilot Tasks発表、AIが「答える」から「実行する」時代へ Microsoftは2026年2月26日、AIアシスタントCopilotの新機能「Copilot Tasks」を発表しました。これまでの生成AIは、ユーザーの問いに対してテキストや画像で「答える」ことが中心でしたが、今回のアップデートは、AIがユーザーに代わって自律的にタスクを「実行する」エージェント型AI(AI Agent)への大きな転換を意味しています。 ■ 主な機能とユースケース Copilot Tasksは、自然言語で指示を与えるだけで、AIがバックグラウンドでタスクを分解・実行し、結果を報告します。主なユースケースとして、定期タスクの自動化、ドキュメント作成、予約や買い物の代行、ロジスティクスの最適化などが挙げられます。なお、支払いやメッセージ送信といった重要なアクションには、ユーザーの同意を必要とする「Human-in-the-loop」の設計が採用されています。 ■ エンジニアが注目すべき「クラウドサンドボックス」構造 技術的な側面で最も重要なのは、その実行環境の設計です。Copilot Tasksは、Microsoftのクラウド上に隔離された「仮想実行環境(サンドボックス)」でタスクを処理します。 2026年初頭、ローカルPC上で直接コマンドを実行するオープンソースのエージェント「OpenClaw」が、深刻な脆弱性を多数指摘され「セキュリティ上の悪夢」と評された事例がありました。これに対し、Microsoftはエージェントの実行場所をクラウド側に封じ込めることで、ユーザーのデバイスへの直接的なリスクを抑え、認証情報の漏洩やシステム乗っ取りを防ぐアーキテクチャを選択しました。 ■ 業界の動向と今後の展望 現在、AI業界は「エージェント型」の激戦区となっています。同時期にOpenAIは「Operator」を、GoogleはAndroid向けの「Geminiエージェント」を展開しており、AIがブラウザやアプリを直接操作する時代が本格的に到来しました。 今後の開発においては、単に「正解を出す」だけでなく、外部サイトの悪意ある記述による「プロンプトインジェクション」への対策や、AIが行ったアクションの責任の所在、監査ログの透明性といった「信頼性エンジニアリング」が競争力の鍵となります。 新人エンジニアの皆さんは、AIを単なるチャットボットとしてではなく、クラウド上の安全な環境で外部ツールを操作する「自律的なソフトウェアコンポーネント」として捉えることで、次世代のシステム設計のヒントが得られるはずです。現在はリサーチプレビュー段階であり、今後の段階的なロールアウトが注目されます。 引用元: https://innovatopia.jp/ai/ai-news/81599/ microgpt 元OpenAIのAndrej Karpathy氏が公開した「microgpt」は、外部ライブラリを一切使用せず、わずか200行の純粋なPythonコードだけでGPTの学習と推論を実現した教育的プロジェクトです。LLM(大規模言語モデル)の仕組みを極限までシンプルに削ぎ落とし、その「アルゴリズムの本質」を1つのファイルに凝縮しています。 概要 microgptは、現代のAIの核心となる技術をブラックボックスなしで実装しています。具体的には以下の要素が含まれています。 データセットとトークナイザ: テキストを読み込み、文字単位で数値(トークン)に変換する最小限の仕組み。Autograd(自動微分)エンジン: 誤差逆伝播法を実現する独自のValueクラス。PyTorchなどのライブラリが内部で行っている計算を、数学の連鎖律に基づいてゼロから記述しています。GPT-2ベースのアーキテクチャ: アテンション機構(トークン間の通信)とMLP(計算処理)を交互に配置し、残差接続やRMSNormを組み込んだ標準的なトランスフォーマー構造。学習と推論: Adamオプティマイザによるパラメータ更新と、学習した統計モデルから新しい文字列を生成(サンプリング)するループ。 本プロジェクトの制約と特徴 効率性よりも「理解のしやすさ」を最優先しているため、以下の制約があります。 ライブラリ依存なし: NumPyすら使わず、標準の数学ライブラリのみで動作します。スカラー演算: 通常、AIは行列演算で高速化しますが、本作は個々の数値を個別に計算します。そのため非常に低速ですが、デバッガで...
    続きを読む 一部表示
    1分未満
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20260302
    2026/03/01
    関連リンク Agentic AI 101 for Advisors as Anthropic Launches Wealth Management Tools AI大手のAnthropic社が、資産管理(ウェルスマネジメント)に特化した「Claude CoWork」プラグインを発表しました。これは、単にテキストを生成するだけのAIから、自律的に業務を遂行する「エージェント型AI(Agentic AI)」への大きな転換を象徴するニュースです。 新人エンジニアがまず押さえておくべき点は、この記事で定義されている「AIエージェント」の4つの基本要素です。これらがループ(循環)することで、AIは単なるツールを超えた「デジタル労働力」として機能します。 Sense(感知): プロンプトだけでなく、メールやツール、現在の状況といった周囲のコンテキストを把握する能力。Think(思考): 目標に対し、自身の状態や環境を踏まえて「次に何をすべきか」を自律的に推論する能力。Act(実行): 他のツールの呼び出しやワークフローの起動など、実際に外部へ影響を与えるアクション。Remember(記憶): インタラクションを通じて情報を保持し、将来の行動を改善する能力。 Anthropicが提供を開始するツールは、ポートフォリオの自動分析や税務分析、さらにはリバランス(資産再配分)の推奨や実行までをスケールさせて行うことが可能です。これにより、従来アドバイザーが行っていた定型業務をAIが肩代わりし、人間はクライアントとの対話や戦略的な成長により注力できるようになります。 この動きは、テクノロジー業界の構造にも影響を与えます。これまでOpenAIやAnthropicなどの汎用LLMを「業界特化型」にカスタマイズして提供していた「AIミドルウェア」プロバイダーにとって、基盤モデル側が直接専門ツールを提供し始めることは大きな脅威となります。 一方で、企業の既存のシステム構成や固有のデータ要件に合わせてAIを調整する、コンサルティング的なアプローチを持つスタートアップの重要性も示唆されています。エンジニアにとっては、AIモデルを単に使うだけでなく、「いかに既存の業務フローに組み込み、自律的なワークフローを設計するか」というエージェント設計の視点が、今後の開発において極めて重要になるでしょう。 引用元: https://www.wealthmanagement.com/artificial-intelligence/agentic-ai-101-for-advisors-as-anthropic-launches-wealth-management-tools The Factory Model: How Coding Agents Changed Software Engineering GoogleのエンジニアであるAddy Osmani氏による、AIエージェントがソフトウェアエンジニアリングの本質をどう変えたかについての洞察です。エージェント技術の進化により、エンジニアリングの「抽象化レイヤー」が一段階上がったと述べられています。 1. ソフトウェア開発の「第3世代」へ これまでのAI活用は、コードの補完(第1世代)や、人間が指示してAIが書く同期的な共同作業(第2世代)でした。現在は、仕様を渡せば自律的に環境構築からテスト、デバッグ、プルリクエスト作成まで行う「自律型エージェント(第3世代)」の時代に突入しています。これは、アセンブリからC言語、フレームワークへと抽象化が進んできた歴史の延長線上にある正当な進化です。 2. 「ファクトリーモデル」という考え方 新しいパラダイムでは、エンジニアは「コードを書く人」から「コードを書く工場(ファクトリー)を築く人」へと役割が変わります。工場とは、複数のエージェント、ツール、コンテキスト、そしてフィードバックループの集合体です。エンジニアの仕事は、個別のコードを書くことではなく、これらのエージェントを並行して動かし、システム全体をオーケストレートすることにシフトします。 3. エンジニアに求められるスキルの変化 コードを書く「作業」は自動化されますが、エンジニアリングの「核」となるスキルはむしろ重要性が増しています。 仕様(スペック)の定義力: 曖昧な仕様は、並行して動く大量のエージェントによって「曖昧な失敗」として増幅されます。何が成功かを明確に定義する力が最大のレバレッジになります。TDD(テスト駆動開発)の徹底: AIが生成したコードが正しいかを検証するには、実装より先にテストを書くTDDが不可欠です。テストこそがエージェントを...
    続きを読む 一部表示
    1分未満
  • 私立ずんだもん女学園放送部 podcast 20260227
    2026/02/26
    youtube版(スライド付き) 関連リンク Boris Cherny氏がシェアした、CLAUDE.mdを理解する 本記事は、Anthropic社のスタッフエンジニアであるBoris Cherny氏が提唱した、AIコーディングエージェント「Claude Code」を最大限に活用するための設定ファイル「CLAUDE.md」の設計思想を解説したものです。このファイルは、プロジェクトのルートディレクトリに配置することで、AIに対して「チームのルール」や「作業の進め方」を伝える「外部メモリ」として機能します。新人エンジニアの方にとっても、AIを単なるチャット相手ではなく、頼れる「自律的なチームメンバー」として教育するための最高のガイドとなります。 主な要点は以下の通りです: 「Planモード」による思考の分離: 複雑なタスク(3ステップ以上の作業や設計判断)では、AIがいきなりコードを書き始めるのを防ぎ、まずは具体的な「計画」を立てさせます。人間とAIが実装方針に合意してから作業を開始することで、意図しないコードの書き換えや手戻りを最小限に抑えます。 「サブエージェント」によるコンテキスト管理: AIが一度に保持できる記憶容量(コンテキストウィンドウ)には限りがあります。リサーチや並列分析などの重いタスクは、別のAIインスタンス(サブエージェント)に切り出して分担させることで、メインの作業環境をクリーンに保ち、思考の精度を維持します。 「自己改善ループ」の構築: 人間がAIのミスを修正した際、その教訓をtasks/lessons.mdというファイルにパターンとして記録させます。これをAIに随時参照させることで、セッションをまたいでも同じ失敗を繰り返さない「成長するAI」を実現します。 品質担保の徹底と自律的なバグ修正: テストやログによる動作証明ができるまで「完了」と見なさない厳格なルールを設けます。また、バグ報告に対しては、人間に指示を仰ぐのではなく、AI自らがログを確認して自律的に解決(Zero context switching)することを目指します。 コア原則(シンプル・根本解決・最小影響): 過剰な設計を避け、一時しのぎではない根本的な原因解決を行い、必要な箇所だけを変更するという、シニアエンジニア基準の品質をAIに求めます。 これらの指針をCLAUDE.mdに定義することで、AIの自律性を引き出し、開発チーム全体の生産性を劇的に向上させることが可能になります。 引用元: https://qiita.com/uno_ha07/items/5820d195510861b5be71 入社前から自分の仕事を奪うセキュリティレビューAIエージェントを作った 本記事は、Sansan株式会社のプロダクトセキュリティグループでインターンを経験した学生が、セキュリティ設計レビューを自動化するAIエージェント「Hayami」を開発した事例を紹介しています。 1. セキュリティ設計レビューの課題 セキュリティ設計レビューとは、開発者が実装に入る前に設計書を確認し、セキュリティ上の懸念を洗い出す工程(シフトレフト)です。Sansanでは、160項目を超える社内ガイドラインとの照合を少人数で対応しており、以下の課題を抱えていました。 網羅性の担保: 膨大なガイドラインを全ての案件で手動チェックするのは限界がある。生産性のボトルネック: 開発側のスピードがAI活用で加速する中、レビューが遅延すると組織全体の生産性を下げてしまう。 2. なぜ独自開発か(AWS Security Agentとの比較) 既存の「AWS Security Agent」も検討されましたが、以下の理由から独自開発の「Hayami」が採用されました。 カスタマイズ性: 頻繁に更新される160以上の社内ガイドラインを、既存ツールに適応させ続ける運用コストが高い。ワークフローの統合: Slackをベースとした既存の依頼フローや、レビュー対象の判定基準といった独自の運用に柔軟に組み込む必要があった。 3. AIエージェント「Hayami」の実力 Hayamiは、Slackから設計書とガイドラインを読み込み、LLM(大規模言語モデル)を用いて分析結果を出力します。 高い精度: ベンチマーク測定の結果、社内ガイドラインへの適合率は95.8%に達し、セキュリティで最も回避すべき「抜け漏れ」は0%を記録しました。リードタイム削減: 初動のレビューコメントをAIが代行することで、レビュー終了までの時間を最大18.76...
    続きを読む 一部表示
    1分未満