『株式会社ずんだもん技術室AI放送局』のカバーアート

株式会社ずんだもん技術室AI放送局

株式会社ずんだもん技術室AI放送局

著者: 株式会社ずんだもん技術室AI放送局
無料で聴く

このコンテンツについて

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。(MC 月:春日部つむぎ、火水木:ずんだもん、金:お嬢様ずんだもん)
エピソード
  • 株式会社ずんだもん技術室AI放送局 podcast 20250610
    2025/06/09
    関連リンク OpenSearch 3.0 でMCPによるAgentとの連携を行ってみる この記事では、OpenSearch 3.0の最新機能、特に「MCP(Model Context Protocol)」を活用したAIエージェントとの連携方法について、新人エンジニアの方にも分かりやすく解説されています。 OpenSearchは、大量のデータの中から必要な情報を素早く探し出すための、強力な検索エンジン(データベースの一種)です。今回リリースされたバージョン3.0では、AI技術との連携が大きく進化しました。中でも注目すべきは、AIエージェントが外部のデータやツールとスムーズにやり取りするための共通ルールであるMCPに、OpenSearchが標準で対応した点です。これにより、OpenSearchは単なる検索システムから、より賢く、幅広い情報に対応できるプラットフォームへと進化しています。 OpenSearch 3.0の主な更新点は以下の通りです。 MCP(Model Context Protocol)への標準対応: AIエージェントとの連携を容易にします。検索性能の大幅向上: Lucene 10やJDK 21へのアップグレードにより、特にAI関連で重要な「ベクター検索」の速度が改善しました。ベクター検索とは、言葉の意味の近さを基に情報を探す高度な検索方法です。データ分析機能の強化: PPL(Piped Processing Language)というデータ分析言語が強化され、ログの相関分析などがしやすくなりました。ダッシュボード機能の強化: 「Workspaces」という機能が追加され、ユーザーごとにカスタマイズされたデータ表示画面を提供できるようになりました。 記事では、このMCP連携の具体的な2つのパターンが紹介されています。 1. OpenSearchから外部のMCPサーバーを利用する構成 このパターンでは、OpenSearchが「質問役」となり、外部にあるAIエージェント(MCPサーバー)に情報を問い合わせます。例えば、OpenSearchに投げられた質問に対して、AIエージェントがAWSの公式ドキュメントを参照して回答するといった使い方ができます。これにより、OpenSearchの内部データだけでなく、外部の豊富な情報源も合わせて活用できるようになります。 2. 外部のMCPサーバーからOpenSearchを呼び出す構成 こちらは反対に、外部のAIエージェントが「質問役」となり、OpenSearch内のデータを参照するパターンです。記事では、Claude DesktopのようなAIアシスタントがOpenSearchに蓄積された商品データに対して質問を投げかけ、適切な回答を得る例が示されています。これにより、既存のOpenSearchに保存されている大事なデータを、AIエージェントから簡単に活用できるようになります。 このように、OpenSearch 3.0のMCP対応は、AIエージェントがOpenSearchのデータや機能をより柔軟に利用できる道を開きます。システム全体として、AIがより賢く、ユーザーの要求に応えられるようになるため、今後のAI活用の幅がさらに広がるでしょう。 引用元: https://acro-engineer.hatenablog.com/entry/2025/06/09/120000 The no-nonsense approach to AI agent development - Vercel この記事は、AIエージェントの開発を、新人エンジニアでも理解しやすいよう、実践的かつ分かりやすい3ステップで解説しています。 AIエージェントとは、これまで人手で行っていた、複数のステップと判断が必要な複雑なタスクを自動化するソフトウェアシステムです。従来の自動化では難しい、文脈理解や状況判断、適応力が求められる作業に向いています。最も効果的なAIエージェントは、特定の領域に特化し、目的を狭く絞り込むことで実現できます。 AIエージェント開発は、次の3つのステップで進められます。 ステップ1:手動でプロトタイプを作る まず、コードを書く前に、人間がタスクを行うように手作業でエージェントの動きをシミュレーションします。具体的な入力データを使って、大規模言語モデル(LLM)にプロンプトを手動で与え、タスクを最後まで進めてみます。この過程で、繰り返し行われる機械的な作業を見つけ出し、どこを自動化できるかを見極めます。もし、この段階でLLMがうまくタスクを完了できないようであれば、そのタスクはAIエージェント向きではないかもしれません。 ステップ2:タスクのループを自動化する 手動シミュレーションでタスクが実行可能だと分かったら、いよいよコードを...
    続きを読む 一部表示
    1分未満
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250609
    2025/06/08
    関連リンク AIの著作権問題に終止符か? 8TBの巨大オープンデータセット「Common Pile」登場、Llama 2に匹敵するLLMもリリース XenoSpectrum 近年、生成AIは膨大なデータを学習して進化しましたが、その中には著作権保護コンテンツも多く含まれ、無断利用による著作権問題が深刻化しています。これによりAI開発企業は学習データの詳細を公開せず、研究の透明性が失われる「透明性の冬」という状況に陥っていました。 このような状況を打破するため、EleutherAIを中心とする共同研究チームが、画期的なテキストデータセット「Common Pile v0.1」を公開しました。これは8テラバイト(TB)もの膨大なデータ量を持つ点が特徴です。最大のポイントは、パブリックドメイン(著作権が消滅したものなど、誰もが自由に使える状態のコンテンツ)と、オープンライセンスのコンテンツ(使用、研究、変更、再配布が自由に許諾されているもの)のみで構築されている点です。特に「オープンの定義2.1版」という厳格な基準を採用し、誰もが自由に利用できるライセンスのコンテンツだけを選び、商用利用や改変が制限されるライセンスは排除されています。 Common Pileは、データ量だけでなく内容も非常に多様です。オープンソースのソースコード、政府・法律関連文書、学術論文など、30種類もの信頼できるソースから収集されています。また、インターネットに存在する誤ったライセンス表記(ライセンスロンダリング)や、個人情報、有害なコンテンツ、重複するデータなどを徹底的に取り除き、高品質を維持するための厳しい管理が行われています。 さらに驚くべきは、この「クリーンな」Common Pileで学習させた新しい言語モデル「Comma v0.1」が、Meta社の「Llama 2」など、ライセンスの透明性が低いデータで学習された既存の高性能モデルに匹敵する、あるいは一部で凌駕する能力を示したことです。これは「著作権を遵守すると高性能なAIは作れない」という従来の常識を覆す画期的な成果と言えます。 Commaモデルの高性能は、Common Pileに含まれる多様なデータソースの「混ぜ方(データミキシング)」を工夫した点にあります。品質の高いデータを優先的に学習させることで、限られた計算資源で効率的に知識を習得できました。 この「Common Pile」は、過去のデータセットにおける著作権問題の反省を活かし、法的・倫理的な正当性を最優先に据えた「The Pileの正統進化形」と位置づけられます。Common Pileの登場は、AI開発における著作権リスクを低減し、透明で倫理的なAI研究を加速させるための大きな一歩となるでしょう。これにより、開発者は安心してAIを開発でき、社会全体として説明可能で信頼できるAIの実現に貢献すると期待されています。 引用元: https://xenospectrum.com/8tb-massive-open-dataset-common-pile-now-available/ うさぎでもわかる🐰ヤバすぎclaude-bridgeでClaude CodeにGPT、Gemini、ローカルLLMを接続!無料でエージェント機能使い放題の革命的ツール この記事では、AI開発ツール「Claude Code」をさらに便利にするオープンソースツール「claude-bridge」を紹介します。これまでClaude CodeはAnthropic社のAIモデルに限定されていましたが、「GPT-4oのような新しいモデルも試したいけど、そのためだけに別のツールを覚えるのは大変…」と感じていたエンジニアの皆さんに朗報です。claude-bridgeを使えば、Claude CodeからOpenAIのGPTシリーズ、GoogleのGemini、さらにはご自身のPCで動かせるローカルLLMまで、様々なAIモデルを利用できるようになります。 claude-bridgeは、Claude Codeが出すAIへのリクエストを「翻訳」し、指定された他のAIプロバイダーが理解できる形式に変換して転送する「プロキシ」として機能します。これにより、Claude Codeは普段通りに動作しますが、裏では自由に選んだAIモデルと連携できる「魔法」を実現しています。 このツールの最大の魅力は、特に「Ollama」というツールと組み合わせることで、自宅のPCに高性能なGPU(画像処理装置)があれば、AIエージェント機能を完全に無料で、そして無制限に使い放題にできる点です。これにより、高額なAPI利用料を気にすることなく、またプライベートなコードや...
    続きを読む 一部表示
    1分未満
  • 私立ずんだもん女学園放送部 podcast 20250606
    2025/06/05
    関連リンク Open Source AI Agent: Build Full Stack Apps この記事は、「app.build」という、オープンソースのプロジェクトを紹介しています。これは、AI技術を活用した「AI Agent」という仕組みを使って、Webアプリケーション開発の初めの一歩を助けてくれるツールです。具体的には、データベースからユーザーインターフェース(画面)まで一通り揃った「フルスタック」と呼ばれるアプリケーションの基本的なコードを、コマンド一つで自動的に生成してくれます。 使い方はとても簡単で、ターミナルでnpx @app.build/cliというコマンドを実行するだけです。生成されるアプリは、主にNeonというクラウド上で動くデータベースサービスなどを利用することを想定していますが、設定を変えたり、独自のテンプレートを使ったりすることも可能です。 app.buildの大きな特徴は、コードが全て公開されている「オープンソース」であることです。これにより、開発の仕組みを透明に見ることができ、誰もが自由に利用したり、改善に貢献したりできます。また、「ローカルファースト」が重視されており、皆さんの手元のPCですぐに動かして試せるように作られています。これは、これからWebアプリ開発を始めたい新人エンジニアの方にとっても、手軽にプロジェクトのひな形を作れる便利な出発点となるでしょう。 このプロジェクトは開発者向けに作られており、特にNeonのようなプラットフォーム上で動くコードをAIに自動生成させるツールを作る際の「参照実装」、つまりお手本となることを目指しているそうです。 プロジェクトのコードは、全てGitHubリポジトリで公開されています。興味があれば、どのようなコードでこのAI Agentが作られているのかを覗いてみることもできます。 このように、AIがソフトウェア開発の一部を自動化し、より効率的にアプリ開発を進められるようにする動きが進んでいます。app.buildは、AI Agentが実際にどのようにアプリケーションコードを生成できるかを示す具体的な例であり、今後の開発スタイルを考える上で参考になるプロジェクトと言えるでしょう。 引用元: https://www.app.build/ AI Agentで動くSNS人格に、ベクトル検索MCPで外部知識を持たせる 前回の記事で作成した、SNS上で活動するAI Agent(架空の友達、今回はプリキュアオタクギャル)には、「最新情報や専門知識が足りない」という課題がありました。LLM(大規模言語モデル)は学習時点より新しい情報を持っていないため、例えば最新のプリキュア作品について尋ねても正確な情報を返せないことが確認されました。 この課題を解決するために、LLMに外部の知識を参照させる仕組み、RAG(Retrieval Augmented Generation)の考え方を取り入れました。具体的には、プリキュアに関する大量の文書(Wikipediaなどから収集・整理)を「ベクトル検索」できるようにデータベース化し、それをAI Agentが使える「ツール」として提供することにしました。このツールはMCP (Model Context Protocol) Serverとして実装しました。 文書をベクトル化(文章の意味を数値のまとまりに変換)する際には、使用するモデルによって検索精度が変わるため、いくつかのモデルを試しました。データベースに保存することで、AI Agentは質問や投稿内容に関連する文書を素早く探し出せるようになります。 AI Agentにこのツールを使わせるためには、「プリキュアに関する話題は確認してから話す」といった人格設定や、ツールの説明文に「正確な事実確認に使う」といったガイドを追加しました。これにより、AI Agentが自律的にツールを使うことを促しました。 実験の結果、AI Agentが自分でツールを使って正しい情報を取得し、投稿や返信を修正する成功例も生まれました。しかし、ツールを使わなかったり、期待と違う情報を取得してしまう失敗例も多く、LLMが自律的に外部ツールを適切に使いこなすのは難しい現状も見えました。これはLLM自体の性能や、ツールの活用を促すためのさらなる工夫(例えば、別のAIがチェックする仕組みなど)が必要であることを示唆しています。 今回、AI Agentが自ら判断して外部ツールを使い、正確な情報を基に投稿する一連の...
    続きを読む 一部表示
    1分未満

株式会社ずんだもん技術室AI放送局に寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。