Razão & Sensibilidade — Ajude-nos a melhorar !

Últimos dias! Que tal ajudar a melhorar o podcast? Por favor, responda a este questionário: é rapidinho (5 a 10 minutos), é anônimo, e vai ser super importante para guiar os próximos episódios: https://goo.gl/forms/UmAi13OLQHYDKSIf2

Razão & Sensibilidade — Episódio 8: Crença indumentária

Razão e Sensibilidade é o podcast onde transformamos incertezas em decisões corretas.

No oitavo episódio, usamos o debate sobre política para ilustrar o fenômeno da crença indumentária, que às vezes funciona como xibolete. (Xibo-o-quê? Venha descobrir!)

(Você já respondeu ao questionário do poscast? Estamos nos últimos dias! É rapidinho — 5 a 10 minutos — é anônimo, e vai ser super importante para guiar os próximos episódios: https://goo.gl/forms/UmAi13OLQHYDKSIf2)

RSS Feed Apple Android Spotify

Razão & Sensibilidade — Episódio 7: Crença na crença

Razão e Sensibilidade é o podcast onde transformamos incertezas em decisões corretas.

No sétimo episódio, Papai Noel, Fada do Dente e o Guerreiro Tapioco nos ajudam a entender a crença na crença, que acontece quando valorizamos a crença em si, em detrimento da relação entre a crença e a realidade.

(Você já respondeu ao questionário do poscast? É rapidinho — 5 a 10 minutos — é anônimo, e vai ser super importante para guiar os próximos episódios: https://goo.gl/forms/UmAi13OLQHYDKSIf2)

RSS Feed Apple Android Spotify

Razão & Sensibilidade — Episódio 6: Qual o poder das crenças falsas?

Razão e Sensibilidade é o podcast onde transformamos incertezas em decisões corretas.

No sexto episódio, pedimos ajuda ao magenta e ao ciano esporte clubes para entender porque nutrimos crenças sem poder explicativo. Analisamos três casos: a crença na crença, a crença indumentária, e a crença como torcida.

 

RSS Feed Apple Android Spotify

Razão & Sensibilidade — Episódio 5: Explicação

Razão e Sensibilidade é o podcast onde transformamos incertezas em decisões corretas.

No quinto episódio, contrastamos duas narrativas para entender porque certas crenças tem poder explicativos e outras não. Por que o Guerreiro Tapioco e seu Tatu Gigante perdem para a linamarina e a linamarase? (Juro que faz sentido no contexto…)

 

RSS Feed Apple Android Spotify

Razão & Sensibilidade — Episódio 4: Mudar de Idéia

Razão e Sensibilidade é o podcast onde transformamos incertezas em decisões corretas.

No quinto episódio, contrastamos duas narrativas para entender .

 

RSS Feed Apple Android Spotify

Razão & Sensibilidade — Episódio 3: Emoção

Razão e Sensibilidade é o podcast onde transformamos incertezas em decisões corretas.

Neste terceiro episódio, descobrimos que a irracionalidade dos comentários da internet é culpa dos tigres de dente de sabre. Exploramos nossa história evolutiva e falamos de inteligência emocional.

 

RSS Feed Apple Android Spotify

Razão & Sensibilidade — Episódio 2: Verdade

Razão e Sensibilidade é o podcast onde transformamos incertezas em decisões corretas.

Neste segundo episódio: dizem que a verdade nunca é pura e raramente é simples, mas nestes tempos de pós verdade, vou defender justamente uma ideia bem simples de verdade. Quero dizer: simples de entender, mas difícil de de querer. Querer a verdade é um trabalho que todos temos que desenvolver aos poucos. Vamos começar?

 

RSS Feed Apple Android Spotify

Razão & Sensibilidade — Episódio 1: Introdução

Razão e Sensibilidade é o podcast onde transformamos incertezas em decisões corretas.

Neste primeiro episódio: nuvens cinzas e sapatos novos. Torço para não chover, ou calço minhas galochas?

 

RSS Feed Apple Android Spotify

In Barcelona for NIPS’2016

I’m in Barcelona now for NIPS’2016 — or should I say, for NIPS’ Symposia and Workshops, since the main conference this year… sold out. That’s at once exciting and frightening: is machine learning the next dot.com?

Anyways — science ! We’re participating, with posters, in two workshops: Adversarial Training (on Friday, 9th) and Bayesian Deep Learning (on Saturday, 10th). Will you be there, let’s talk!

The papers:

Adversarial Images for Variational Autoencoders

Pedro Tabacof, Julia Tavares, Eduardo Valle

We investigate adversarial attacks for autoencoders. We propose a procedure that distorts the input image to mislead the autoencoder in reconstructing a completely different target image. We attack the internal latent representations, attempting to make the adversarial input produce an internal representation as similar as possible as the target’s. We find that autoencoders are much more robust to the attack than classifiers: while some examples have tolerably small input distortion, and reasonable similarity to the target image, there is a quasi-linear trade-off between those aims. We report results on MNIST and SVHN datasets, and also test regular deterministic autoencoders, reaching similar conclusions in all cases. Finally, we show that the usual adversarial attack for classifiers, while being much easier, also presents a direct proportion between distortion on the input, and misdirection on the output. That proportionality however is hidden by the normalization of the output, which maps a linear layer into non-linear probabilities.

The fulltext here:  https://arxiv.org/abs/1612.00155

🔔 The organizers of the workshop have opened a reddit thread for the public to ask questions. We have a subthread there — ask us anything! 🔔

Known Unknowns: Uncertainty Quality in Bayesian Neural Networks

Ramon Oliveira, Pedro Tabacof, Eduardo Valle

We evaluate the uncertainty quality in neural networks using anomaly detection. We extract uncertainty measures (e.g. entropy) from the predictions of candidate models, use those measures as features for an anomaly detector, and gauge how well the detector differentiates known from unknown classes. We assign higher uncertainty quality to candidate models that lead to better detectors. We also propose a novel method for sampling a variational approximation of a Bayesian neural network, called One-Sample Bayesian Approximation (OSBA). We experiment on two datasets, MNIST and CIFAR10. We compare the following candidate neural network models: Maximum Likelihood, Bayesian Dropout, OSBA, and — for MNIST — the standard variational approximation. We show that Bayesian Dropout and OSBA provide better uncertainty information than Maximum Likelihood, and are essentially equivalent to the standard variational approximation, but much faster.

The fulltext here:  https://arxiv.org/abs/1612.01251