308 - How Image Diffusion Models Work - the 20 minute explainer
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
概要
You already know how LLMs work from our popular 20-minute explainer. Now we take it to images. What does Michelangelo have to do with stable diffusion? More than you'd think. Walk away knowing how image generation actually works — and what it has in common with the text models you already understand.
Full shownotes at fragmentedpodcast.com.
Show Notes- Episode 303 - How LLMs work in 20 minutes - text generation
- VAE -
Variational Autoencoder - RGB Color model - wikipedia
- Word2Vec technique - wikipedia
- Efficient Estimation of Word Representation -
original Word2Vec paper by Mikolov et al.
- Efficient Estimation of Word Representation -
- High-Resolution Image Synthesis with Latent Diffusion Models -
Rombach et al. (2022) — the paper behind Stable Diffusion - Image Training data
- LAION-5B - 5 billion image-text pairs
scraped from the web, used to train many image generation models - WebLI - Google's internal image-text
dataset
- LAION-5B - 5 billion image-text pairs
- Michelangelo
We'd love to hear from you. Email is the
best way to reach us or you can check our contact page for other
ways.
We want to hear all the feedback: what's working, what's not, topics you'd like
to hear more on.
- Contact us
- Newsletter
- Youtube
- Website
- Kaushik Gopal
- Iury Souza
[!fyi] We transitioned from Android development to AI starting with
Ep. #300. Listen to that episode for the full story behind
our new direction.
まだレビューはありません