
Teste de Turing #6: Abrindo a caixa preta das redes neurais
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
Neste episódio, Erick Fonseca conversa com Marcos Treviso sobre as questões de tentar entender e explicar as decisões de modelos computacionais cada vez mais complexos de NLP. Conversamos sobre explicabilidade, fidelidade, inteligibilidade, e os desafios que essa área já demonstra.
Alguns links interessantes sobre o assunto:
- Um livro online sobre "Machine Learning Interpretável": https://christophm.github.io/interpretable-ml-book/interpretability.html
- Black Box NLP: um workshop anual de NLP dedicado a entender melhor os modelos neurais: https://blackboxnlp.github.io/
- Um artigo discutindo o conceito de explicabilidade: The Mythos of Model Interpretability
- Um artigo trazendo ideias das ciências sociais para explicabilidade: Explanation in artificial intelligence: Insights from the social sciences