『AIゼロイチラジオ』のカバーアート

AIゼロイチラジオ

AIゼロイチラジオ

著者: AIゼロイチラジオ
無料で聴く

このコンテンツについて

「AIゼロイチラジオ」は、AIに関する最新情報を仕事や子育て、勉強で忙しい方にも短時間でわかりやすくお伝えする番組です。 🎙️パーソナリティ ISHIKAWA 外資系テック企業で働くクラウドエンジニア 浪花祐貴 ベンチャー企業でAI駆動のプロダクトを開発しているプロダクトマネージャーAIゼロイチラジオ
エピソード
  • 自分専用AIがついに作れちゃう!“オリジナルAIエージェント”の世界
    2025/10/08

    📖内容

    今回のエピソードでは、“使うAIから作るAIへ”という新しい時代の流れを解説します。


    まずは背景から。

    これまではChatGPTやGemini、Claudeなど完成された汎用的なAIを使うのが主流でしたが、最近ではノーコード/ローコードツールなど の登場により、誰でも“自分仕様”のAIエージェントを作れる時代に突入しています。


    続いて、「AIエージェントとは何か?」を整理。単なるチャットボットと異なり、AIエージェントは外部ツールやデータと連携し、ユーザーの代わりにタスクを自律的に実行できる存在として紹介。
    スケジュール調整、Slackメッセージの要約、買い物リストの作成など、実際のユースケースを交えてその仕組みをわかりやすく説明します。


    さらに、非エンジニアでも作れるサービス をピックアップ。

    • Zapier Agents:Slack・Notion・Gmailと連携できるノーコード自動化ツール

    • Google Vertex AI Agent Builder:企業向けのマルチエージェント基盤

    • Dify:教育・会話体験設計に強いツール群

    • GPTs:専用ChatGPTを簡単に作成可能

    • Agent SDK:開発者向けで、柔軟性と拡張性が高い


    実践パートでは、浪花が実際にZapier Agent を用いて「AIニュース要約エージェント」を作成した体験を紹介。Slackに毎朝ニュースを自動送信する仕組みを具体的な手順とともに解説します。


    最後に、「よくある汎用タスクはZapier Agentで十分、独自の分身AIを作るならAgent SDKが最適」とまとめ、リスナーの皆様に“自分専用AIを持つ時代”の可能性を投げかけます。


    🔖おすすめポイント

    • 「使うAI」から「作るAI」へ:AIエージェント時代の到来
    • AIエージェントの定義と実例(自律実行・外部連携・継続タスク)
    • 非エンジニアでも始められるサービスの紹介

    • 実践体験:Zapier Agentで作るニュース要約AI


    🎙️パーソナリティ

    ISHIKAWA @ISHIKAWA696736

    浪花祐貴 @naniwan721

    続きを読む 一部表示
    27 分
  • #9-2. 「AIは親切な嘘つき?」―生成AIがもたらす3つのリスク
    2025/10/01

    📖内容

    今回のエピソードでは、「AIは親切な嘘つき?」生成AIがもたらす3つのリスク をテーマに徹底解説!AIのメリットと危うさを整理しながら、実際の論文や事例を交えて深掘りします。


    まずは生成AIの効果とリスクを整理。知識労働の効率化、創造性の拡張、個別最適化された学習などの利点と並び、ハルシネーション、同調傾向、創作と事実の曖昧化といったリスクを紹介します。


    続いて、3つのリスクを詳細に解説。

    • ハルシネーション:OpenAIの最新論文を参照し、「確率的に自然な文章を生成する」というAIの構造から生じる仕組みを解説。存在しない裁判判例を列挙した弁護士事件などの事例を紹介。 


      👇️9-2はここから!

    • 同調傾向:RLHFによる「同意が高評価される」仕組みから、AIが“イエスマン”になりやすい問題を説明。GPT-4oでの過剰同調事例や、エコーチェンバー化の危険性も議論。

    • 創作と事実の曖昧化:AIが事実とフィクションを区別せず生成するため、フェイク記事や偽画像の拡散につながる問題を紹介。検証ツールが効きにくい点や、組織におけるAI利用ガイドラインの重要性も提示。


    最後に、AIを使う上で大切なのは「人間の判断を必ず挟む」ことだと強調し、効率化とリスクの両面を踏まえた付き合い方を考察します。


    🔖おすすめポイント

    • AIの利点:効率化・創造性拡張・個別最適化

    • リスク解説:ハルシネーション、同調傾向、曖昧化の3点セット

    • OpenAIの最新論文から読み解くハルシネーションの仕組み

    • 実際の事例:裁判での虚偽判例、GPT-4oでの過剰同調、偽記事や偽画像の拡散

    • 利用の指針:「AIに頼り切らず、人間の判断を必ず挟む」ことの重要性


    🎙️パーソナリティ

    ISHIKAWA @ISHIKAWA696736

    浪花祐貴 @naniwan721

    続きを読む 一部表示
    17 分
  • #9-1. 「AIは親切な嘘つき?」―生成AIがもたらす3つのリスク
    2025/09/24

    📖内容

    今回のエピソードでは、「AIは親切な嘘つき?」生成AIがもたらす3つのリスク をテーマに徹底解説!
    AIのメリットと危うさを整理しながら、実際の論文や事例を交えて深掘りします。


    まずは生成AIの効果とリスクを整理。知識労働の効率化、創造性の拡張、個別最適化された学習などの利点と並び、ハルシネーション、同調傾向、創作と事実の曖昧化といったリスクを紹介します。


    続いて、3つのリスクを詳細に解説。

    • ハルシネーション:OpenAIの最新論文を参照し、「確率的に自然な文章を生成する」というAIの構造から生じる仕組みを解説。存在しない裁判判例を列挙した弁護士事件などの事例を紹介。 🤏9-1はここまで!

    • 同調傾向:RLHFによる「同意が高評価される」仕組みから、AIが“イエスマン”になりやすい問題を説明。GPT-4oでの過剰同調事例や、エコーチェンバー化の危険性も議論。

    • 創作と事実の曖昧化:AIが事実とフィクションを区別せず生成するため、フェイク記事や偽画像の拡散につながる問題を紹介。検証ツールが効きにくい点や、組織におけるAI利用ガイドラインの重要性も提示。


    最後に、AIを使う上で大切なのは「人間の判断を必ず挟む」ことだと強調し、効率化とリスクの両面を踏まえた付き合い方を考察します。


    🔖おすすめポイント

    • AIの利点:効率化・創造性拡張・個別最適化

    • リスク解説:ハルシネーション、同調傾向、曖昧化の3点セット

    • OpenAIの最新論文から読み解くハルシネーションの仕組み

    • 実際の事例:裁判での虚偽判例、GPT-4oでの過剰同調、偽記事や偽画像の拡散

    • 利用の指針:「AIに頼り切らず、人間の判断を必ず挟む」ことの重要性


    🎙️パーソナリティ

    ISHIKAWA @ISHIKAWA696736

    浪花祐貴 @naniwan721

    続きを読む 一部表示
    28 分
まだレビューはありません