GPT-3: Escrevendo textos que fazem sentido.

CanalTech, Por Luciana Zaramela | 28 de Janeiro de 2021 às 16h20

Em meados do ano passado, o modelo de linguagem escrita por inteligência artificial (IA) GPT-3 impressionou muita gente na internet com seus textos variados e ricos em vocabulário, escritos sem qualquer intervenção do homem após os primeiros comandos.

O sistema, desenvolvido pela OpenAI, empresa de pesquisa e desenvolvimento em inteligência artificial co-fundada por Elon Musk (que se afastou para cuidar melhor da Tesla e da SpaceX), tem base em machine learning e, graças a um dataset de 175 bilhões de parâmetros, pode escrever os mais variados tipos de textos, sob os mais variados gêneros e assuntos. A linguagem vem para substituir a já aclamada GPT-2, que tinha 1,5 bilhão de parâmetros e foi lançada em 2019.

[ Leia mais ]

Sê o primeiro

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *