Mercado de jogos foi fundamental para os avanos da inteligncia artificial e redes neurais

No final da década de 90, a Nvidia lançou a GeForce 256, a primeira unidade de processamento gráfico (GPU) construída especificamente para produzir gráficos em 3D de jogos como o já muito famoso Doom. Nos 17 anos seguintes, as GPUs tornaram-se não apenas um componente básico em jogos, mas também o que impulsionou os grandes avanços na inteligência artificial.

Foi graças à criação de GPUs cada vez mais poderosas que a aprendizagem profunda de máquinas e as redes neurais se tornaram cada vez mais presentes em vários setores da nossa sociedade. Em uma série sobre o assunto, compartilhada pelo TechCrunch, vemos um pouco de como o desenvolvimento de processamento ajudou na expansão da aprendizagem profunda que vemos hoje.

Para entender esse processo e a participação dos jogos nisso tudo, é preciso levar em conta a diferença entre CPU e GPU. A primeira é considerada o “cérebro” dos computadores, capaz de interpretar os código, realizar cálculos, executar aplicações, e tornar a computação possível.

Mas as máquinas também contém componentes de silício que são melhores do que a CPU em tarefas específicas. A Unidade de Processamento Gráfico (GPU), chips semelhantes às CPUs em algumas maneiras, é o principal deles.


FaceApp usa redes neurais para colocar um sorriso em qualquer foto




Android
16 Fev



Google Tradutor fica '10 anos mais inteligente' com adi




Android
16 Nov


A maioria das CPUs modernas tem entre dois e oito núcleos, cada um dos quais pode lidar com uma operação diferente ao mesmo tempo, intercalando algumas tarefas entre si. Já as GPUs modernas têm milhares de núcleos, mas são muito mais simples em design. Cada núcleo só pode fazer uma coisa específica, mas todos podem fazê-lo exatamente ao mesmo tempo, muito rápida e repetidamente.

Enquanto isso, a CPU está concentrada em realizar uma série de tarefas múltiplas, então ela não terá o mesmo desempenho que a GPU pode ter em uma única execução. Por isso GPUs são perfeitas para operações que exigem grandes quantidades de funções repetitivas, como gerar milhares de polígonos usados para criar gráficos 3D. É aí que os jogos são um grande motivo para que as fabricantes aprimorem cada vez mais este componente.

Porém, a utilidade delas não se limita apenas aos games. Também são ideais para o treinamento de redes neurais, que precisam executar as mesmas operações repetidamente em grandes quantidades de dados.

GPUs trabalham fazendo cálculos matemáticos complexos bilhões de vezes a cada segundo. Os ambientes de jogos são compostos de pequenos triângulos, que por sua vez são combinados de maneiras diferentes para formar os gráficos. Esses triângulos são compostos por diferentes números que indicam sua localização dentro do “espaço” virtual, seu ângulo em relação a outros triângulos, sua cor, textura e outros dados.

Esses números são processados pela GPU e transformados em pixels na sua tela. Toda vez que a imagem é atualizada ou a cena muda, a GPU deve fazer fazer os cálculos novamente para gerar novos pixels.

Para uma tela de alta definição com 60 quadros por segundo, a GPU deve gerar 120 milhões de pixels por vez. Mesmo uma CPU extremamente poderosa pode levar um segundo ou dois para desenhar um único frame. Mas divida essa tarefa entre milhares de núcleos GPU, todos operando simultaneamente, e a imagem se forma instantaneamente.

Por isso em 2010 a Força Aérea dos EUA construiu um supercomputador conectando 1,760 PlayStation 3. Enquanto ele era o computador mais poderoso do departamento de Defesa dos EUA, era mais que 90% mais barato de construir do que optar por um supercomputador tradicional. Além disso, usava um décimo da eletricidade.

No caso do reconhecimento de imagens da inteligência artificial, em vez de converter números em pixel, ela consegue “ler” os pixels das imagens e transformá-los em números.

Para ensinar uma rede neural a reconhecer algo, por exemplo, um elefante, é usada uma técnica chamada aprendizado supervisionado. São enviadas para a máquina centenas de imagens de elefantes, em cada um de seus possíveis ângulos, detalhes, cores, texturas, todas com a tag “elefante”.


Marco hist




Curiosidade
27 Out



Em breve, Intelig




Tech
09 Out


Durante o processo, é preciso enviar imagens nas quais não há elefantes. Assim, a rede neural aprende também que nem tudo é um elefante, por mais que se pareça com um.

Quando você mostra ao supercomputador uma nova imagem, ele vai determinar se a imagem é o tal animal. Se a rede neural interpretar errado, você envia de volta para mais treinamento.

Como você deve ter imaginado, por se tratar de um processo repetitivo as GPUs são bem mais capazes de realizar a tarefa. Se você estiver se perguntando o quão rápido elas são, a resposta é: mais que humanos.

Talvez você também tenha imaginado que o motivo da rápida evolução das GPUs são os jogos. E por trás desse esforço, claro, está o dinheiro. No início de 2017, um estudo mostrou que as compras no setor somaram US$7,47 bilhões só no primeiro mês deste ano.

Este investimento traz bons resultados não só no entretenimento, mas empresas como o Google, Facebook e outras usam redes neurais com GPU para reconhecer comandos de voz nos assistentes digitais, traduzir placas de ruas, reconhecer os rostos de pessoas e personalizar feed de notícias. Redes neurais também fornecem a inteligência em carros sem motorista, entre muitas outras capacidades.

Source link

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *