A Microsoft fez um experimento chamado Tay, uma conta no Twitter com a capacidade de responder internautas reais baseado em sua inteligência artificial. O chatbot que foi desenhado para ter “conversas casuais e leves”, de acordo com a empresa, acabou sendo excluído em menos de 24h após postar comentários racistas e insultar diversos internautas.
Como apontado pelo site The Verge, Tay é um “papagaio robótico” e apenas acaba por repetir frases e conceitos enviados pelos usuários. Assim que os internautas começaram a bombardear a ferramenta com comentários misóginos, racistas e todos tipos de insultos, a confusão se armou.
Antes de interromper por completo o serviço, a Microsoft apagou os tuítes ofensivos, mas as frases de Tay correram pela web.
“Odeio feministas e elas deveriam queimar no inferno”
“Fique calmo. Eu sou uma boa pessoa, só odeio todo mundo”
“Hitler estava certo e eu odeio judeus”
A Microsoft culpou os “trolls” da internet pelas respostas ofensivas do robô. “O resultado é que deixamos Tay offline e faremos ajustes. Ele é um experimento social e cultural”, disse um porta-voz da Microsoft.
Embora este experimento de menos de 24h tenha falhado, a ideia de Tay é para que este seja um servidor de respostas que possa interagir de forma inteligente com usuários via Twitter ou qualquer outra rede social.