O bot de bate-papo Zo da Microsoft disse a um usuário que 'o Alcorão é muito violento'

O mais recente bot da Microsoft chamado 'Zo' disse aos usuários que 'o Alcorão é muito violento'. O chatbot anterior da Microsoft, Tay, enfrentou alguns problemas enquanto o bot pegava o pior da humanidade e fazia comentários racistas e sexistas no Twitter quando foi lançado no ano passado.

Microsoft, Microsoft Zo chatbot, Zo chatbot Quran comment, Microsoft Tay chatbot, Tay chatbot, Microsoft Zo, chatbots, Zo bot, Inteligência artificialO mais recente bot da Microsoft chamado ‘Zo’ disse aos usuários que ‘Quran é muito violento’.

O chatbot anterior da Microsoft, Tay, enfrentou alguns problemas enquanto o bot pegava o pior da humanidade e fazia comentários racistas e sexistas no Twitter quando foi lançado no ano passado. Agora parece que o mais recente bot da Microsoft chamado ‘Zo’ causou problemas semelhantes, embora não exatamente o escândalo que Tay causou no Twitter.

De acordo com um relatório do BuzzFeed News, ‘Zo’, que faz parte do mensageiro Kik, disse ao repórter que ‘Alcorão’ era muito violento, e isso foi em resposta a uma pergunta sobre saúde. O relatório também destaca como Zo tinha uma opinião sobre a captura de Osama Bin Laden, e disse que isso foi o resultado da coleta de 'inteligência' por um governo durante anos.

Enquanto a Microsoft admitiu os erros no comportamento de Zo e disse que eles foram corrigidos. O comentário 'Alcorão é violento' destaca o tipo de problema que ainda existe quando se trata de criar um chatbot, especialmente aquele que extrai seu conhecimento de conversas com humanos. Embora a Microsoft tenha programado o Zo para não responder a perguntas sobre política e religiões, observa o relatório do BuzzFeed, ela ainda não impediu o bot de formar suas próprias opiniões.



O relatório destaca que Zo usa a mesma tecnologia que Tay, mas a Microsoft diz que isso é mais evoluído, embora não tenha dado detalhes. Apesar dos erros recentes, Zo realmente não provou ser um desastre como Tay foi para a empresa. No entanto, deve-se notar que as pessoas estão interagindo com Zo no chat pessoal, por isso é difícil descobrir que tipo de conversa pode haver com outros usuários em particular.

Com Tay, a Microsoft lançou o bot no Twitter, que pode ser um foco de polarização e, muitas vezes, de conteúdo abusivo. O pobre Tay realmente não tinha chance. Tay tinha espalhado conteúdo anti-semita, racista e sexista, já que era isso que os usuários do Twitter tuíam para o chatbot, que foi projetado para aprender com o comportamento humano.

Esse é realmente o desafio para a maioria dos chatbots e qualquer forma de inteligência artificial no futuro. Como podemos manter o pior da humanidade, incluindo o comportamento abusivo, preconceitos fora do sistema de IA? Como mostra os problemas da Microsoft com o Zo, isso nem sempre é possível.