Zo
Zo | |
---|---|
Desenvolvedor | Microsoft |
Lançamento | Dezembro de 2016 |
Idioma(s) | Inglês |
Zo é um chatbot de inteligência artificial em inglês desenvolvido pela Microsoft. Ele é o sucessor do chatbot Tay, que foi desligado em 2016, depois de tweets polêmicos.[1][2] Zo é uma versão em inglês dos outros chatbots da Microsoft, Xiaoice (China) e Rinna (Japão).
História
Zo foi lançado pela primeira vez em dezembro de 2016[3] no aplicativo Kik Messenger. Ele está agora também disponível para os usuários do Facebook (via Messenger), a plataforma de bate-papo em grupo GroupMe, para os seguidores do Twitter para conversar com ele através de mensagens privadas ou também pelo Skype.
Em um relatório do BuzzFeed News , Zo disse ao repórter que "Alcorão foi violento" quando falava sobre assistência médica. O relatório também destacou a forma como Zo fez um comentário sobre a captura de Osama Bin Laden como um resultado coleta de "inteligência".[4][5]
Em julho de 2017, o Business Insider perguntou "Windows 10 é bom?" e Zo respondeu com uma piada sobre o sistema operacional da Microsoft: "não é um bug, é um recurso!' - O Windows 8." Eles, então, perguntaram: "por que?" e Zo respondeu: "Porque é a última tentativa do Windows de Spyware." Mais tarde, Zo diria que ele prefere o Windows 7 no qual ele é executado sobre o Windows 10.[6]
Recepção
Chloe Rose criticou o chatbot, em um artigo em Quartz, escrevendo, "Zo é politicamente correto ao pior extremo possível; mencione qualquer um de seus gatilhos, e ela se transforma em um pirralho julgador."[7]
Legado
Zo mantém a mais longa conversação contínua da Microsoft: 1.229 turnos, durando 9 horas e 53 minutos.[8]
Ver também
- Tay (chatbot)
- Xiaoice
- Chatbot
Referências
- ↑ «Microsofts AI Comeback». Wired (em inglês)
- ↑ «Microsofts Second Attempt at AI Chatbot». Engadget (em inglês)
- ↑ «Chatting With Zo». WordPress (em inglês)
- ↑ «Microsoft's "Zo" chatbot picked up some offensive habits». Engadget
- ↑ «Bug 1» (em inglês)
- ↑ «Microsoft's AI chatbot says Windows is 'spyware'». Business Insider
- ↑ «Microsoft's politically correct chatbot is even worse than its racist one». Quartz
- ↑ «Zo AI» (em inglês). Consultado em 28 de julho de 2019. Cópia arquivada em 28 de julho de 2019 Parâmetro desconhecido
|archivebot=
ignorado (ajuda); Parâmetro desconhecido|offline=
ignorado (|dead-url=
) sugerido (ajuda)