O que é processamento de linguagem natural? [NLP]5 exemplos de inteligência artificial no dia a dia
O site da ferramenta traz alguns exemplos bastante complexos, para não dizer surreais:
Uma pintura em óleo majestosa de uma rainha guaxinim usando um vestido real vermelho francês. O quadro está pendurado em uma parede decorada.Uma foto de um cachorro Corgi andando de bicicleta na Times Square. Ele está usando óculos de sol e chapéu de praia.Uma cobra gigante em uma fazenda. A cobra é feita de milho.
Em todos os casos, os resultados são imagens muito bem acabadas. Elas parecem feitas em um programa de ilustração, modelagem 3D ou edição de fotografias. A página traz uma pequena demonstração, bem mais limitada do que a inteligência artificial promete. Nela, você tem opções de estilo de imagem, animal, roupas, acessórios, atividades e cenários. É só combinar e receber sua imagem. Os resultados são quase sempre ótimos — as fotos de panda e guaxinim usando óculos escuros não deram certo, mas de resto, as imagens se encaixam perfeitamente na descrição. Segundo o Google, sua inteligência artificial bateu a DALL-E, da OpenAI, em um benchmark que a própria empresa criou. O teste consiste em colocar os programas para criarem 200 imagens a partir de descrições predefinidas e depois colocá-las sob avaliação de humanos. Modelos de texto-para-imagem como estes permitiriam que pessoas criem ilustrações e montagens sem precisar saber operar programas como Photoshop, por exemplo. Mas não agora.
Inteligência artificial traz riscos
O Google não liberou a ferramenta para teste. Por isso, não dá para dizer se qualquer descrição vai virar uma imagem tão boa assim ou se a empresa só selecionou os melhores resultados para mostrar — partindo do princípio que não houve manipulação, obviamente. Mas há um bom motivo para isso. Se o Imagen é tão poderoso quanto promete, ele pode ser usado para fake news, bullying e assédio. O Google também ressalta que o algoritmo aprende com imagens da internet, então pode codificar vieses sociais como racismo, sexismo ou comportamentos tóxicos. O DALL-E, “concorrente” do Imagen, está em fase beta e disponível apenas para usuários selecionados. Ele filtra entradas de texto para evitar que o modelo seja usado para criar imagens racistas, violentas ou pornográficas. O Google diz que o Imagen não é adequado para uso público neste momento. Com informações: Cnet, The Verge.