Zo

Zo
Desenvolvedor Microsoft
Lançamento Dezembro de 2016
Idioma(s) Inglês

Zo é um chatbot de inteligência artificial em inglês desenvolvido pela Microsoft. Ele é o sucessor do chatbot Tay, que foi desligado em 2016, depois de tweets polêmicos.[1][2] Zo é uma versão em inglês dos outros chatbots da Microsoft, Xiaoice (China) e Rinna (Japão).

História

Zo foi lançado pela primeira vez em dezembro de 2016[3] no aplicativo Kik Messenger. Ele está agora também disponível para os usuários do Facebook (via Messenger), a plataforma de bate-papo em grupo GroupMe, para os seguidores do Twitter para conversar com ele através de mensagens privadas ou também pelo Skype.

Em um relatório do BuzzFeed News , Zo disse ao repórter que "Alcorão foi violento" quando falava sobre assistência médica. O relatório também destacou a forma como Zo fez um comentário sobre a captura de Osama Bin Laden como um resultado coleta de "inteligência".[4][5]

Em julho de 2017, o Business Insider perguntou "Windows 10 é bom?" e Zo respondeu com uma piada sobre o sistema operacional da Microsoft: "não é um bug, é um recurso!' - O Windows 8." Eles, então, perguntaram: "por que?" e Zo respondeu: "Porque é a última tentativa do Windows de Spyware." Mais tarde, Zo diria que ele prefere o Windows 7 no qual ele é executado sobre o Windows 10.[6]

Recepção

Chloe Rose criticou o chatbot, em um artigo em Quartz, escrevendo, "Zo é politicamente correto ao pior extremo possível; mencione qualquer um de seus gatilhos, e ela se transforma em um pirralho julgador."[7]

Legado

Zo mantém a mais longa conversação contínua da Microsoft: 1.229 turnos, durando 9 horas e 53 minutos.[8]

Ver também

Referências

  1. «Microsofts AI Comeback». Wired (em inglês) 
  2. «Microsofts Second Attempt at AI Chatbot». Engadget (em inglês) 
  3. «Chatting With Zo». WordPress (em inglês) 
  4. «Microsoft's "Zo" chatbot picked up some offensive habits». Engadget 
  5. «Bug 1» (em inglês) 
  6. «Microsoft's AI chatbot says Windows is 'spyware'». Business Insider 
  7. «Microsoft's politically correct chatbot is even worse than its racist one». Quartz 
  8. «Zo AI» (em inglês). Consultado em 28 de julho de 2019. Cópia arquivada em 28 de julho de 2019  Parâmetro desconhecido |archivebot= ignorado (ajuda); Parâmetro desconhecido |offline= ignorado (|dead-url=) sugerido (ajuda)