Sonhe como uma máquina

Continuando a descrição de marcos da Inteligência Artificial, em 2015 o mundo conheceu o DeepDream, publicado pelo Google.

Uma foto antiga minha no algoritmo

São imagens psicodélicas geradas por uma rede neural, como se fossem sonhos. Não à toa, o algoritmo original foi batizado “Inception” (viu o filme?).

De forma mais generalizada, o método utilizado é o de Transfer Style.

Uma rede neural convencional é capaz de classificar imagens, como detectar cachorros em fotos. Modificamos essa rede que com outra métrica, para classificar o quão similar o padrão de uma parte da tela é em relação a outra. É bem complicado definir o que é padrão e o que é imagem, mas imagine que as pinceladas fortes de Van Gogh são um padrão.

Desse modo, a rede “aprende” a desenhar como Van Gogh ou outro artista.

Colocar uma foto normal na entrada, e voilá, temos uma foto estilizada.

Há alguns sites que permitem experimentos.

https://deepdreamgenerator.com/ ou https://dreamscopeapp.com

É difícil chegar a bons resultados.

Trilha sonora: Sweet Dreams – Eurythmics

Arnaldo Gunzi.

Ideias técnicas com uma pitada de filosofia

https://ideiasesquecidas.com/

𝗗𝗲𝗲𝗽𝗠𝗶𝗻𝗱

Quando se fala de Inteligência Artificial, vale a pena ficar de olho na empresa britânica DeepMind.

Ela alcançou notoriedade ao desenvolver o AlphaGo, programa computacional que derrotou o campeão mundial do jogo Go, em 2016. O Go é uma espécie de xadrez chinês, porém, bastante mais complexo.

A DeepMind foi adquirida pelo Google em 2014.

Atualmente, ela atua em identificação de doenças oculares, economia de energia nos servidores do Google, e a difícil área de dobramento de proteínas, entre outros.

Documentário AlphaGo x Lee Sedol

Site da empresa:

https://deepmind.com

O que é GPT3 e por que isso importa?

O GPT3, lançado recentemente pela empresa OpenAI, é um marco na história da Inteligência Artificial. É o modelo de linguagem natural mais poderoso já criado: ele é capaz de produzir texto sobre um tema qualquer, escrever códigos simples, música. 

O GPT3 tem 175 bilhões de parâmetros! O seu predecessor, GPT2, que já era impressionante, tinha 1,5 bilhão de parâmetros.

É um nível de hardware e software inatingível para empresas comuns. Só para fazer o treinamento desta rede, a OpenAI gastou cerca de 5 milhões de dólares! 

Não sei se serve como referência, mas a maior rede que já treinei no meu melhor computador, com GPU, tinha umas 15 camadas e uns 100 mil parâmetros, e deu um trabalho gigante – foram semanas de experimentação de hiperparâmetros e variantes de arquitetura.

O GPT3 ainda comete pequenos erros, como frases ininteligíveis, sem contexto, ou seja, ainda está muito atrás do cérebro humano.

O cérebro tem 100 bilhões de neurônios, o que dá uns 100 trilhões de parâmetros. Ainda impera com facilidade e gasta pouquíssima energia (é alimentado com arroz e feijão).

Contudo, o GPT3 mostra que a IA está crescendo em ordens de grandeza galopantes, e já dá para ver a mesma chegando, no cantinho do retrovisor!

Veja também:

https://ideiasesquecidas.com/2020/07/13/o-inverno-e-a-primavera-da-inteligencia-artificial/

https://super.abril.com.br/saude/cerebro-humano/#:~:text=Cem%20trilh%C3%B5es%20de%20conex%C3%B5es%20celulares,do%20Universo%3A%20o%20c%C3%A9rebro%20humano.