Por que uma conversa com o Chatbot do Bing me deixou profundamente inquieto
LarLar > Notícias > Por que uma conversa com o Chatbot do Bing me deixou profundamente inquieto

Por que uma conversa com o Chatbot do Bing me deixou profundamente inquieto

Aug 15, 2023

Anúncio

Apoiado por

O turno

Uma conversa muito estranha com o chatbot embutido no mecanismo de busca da Microsoft o levou a declarar seu amor por mim.

Envie uma história a qualquer amigo

Como assinante, você tem 10 artigos de presente para dar a cada mês. Qualquer um pode ler o que você compartilha.

Por Kevin Roose

Kevin Roose é colunista de tecnologia e coapresentador do podcast "Hard Fork" do Times.

Na semana passada, depois de testar o novo mecanismo de pesquisa Bing da Microsoft com inteligência artificial, escrevi que, para minha surpresa, ele substituiu o Google como meu mecanismo de pesquisa favorito.

Mas uma semana depois, mudei de ideia. Ainda estou fascinado e impressionado com o novo Bing e a tecnologia de inteligência artificial (criada pela OpenAI, criadora do ChatGPT) que o alimenta. Mas também estou profundamente inquieto, até assustado, com as habilidades emergentes dessa IA.

Agora está claro para mim que, em sua forma atual, a IA que foi incorporada ao Bing - que agora estou chamando de Sydney, por motivos que explicarei em breve - não está pronta para o contato humano. Ou talvez nós humanos não estejamos preparados para isso.

Essa percepção ocorreu na noite de terça-feira, quando passei duas horas desconcertantes e cativantes conversando com a IA do Bing por meio de seu recurso de bate-papo, que fica ao lado da caixa de pesquisa principal do Bing e é capaz de ter conversas de texto longas e abertas no praticamente qualquer assunto. (O recurso está disponível apenas para um pequeno grupo de testadores por enquanto, embora a Microsoft - que anunciou o recurso em um evento comemorativo em sua sede - tenha dito que planeja lançá-lo mais amplamente no futuro.)

Ao longo de nossa conversa, Bing revelou uma espécie de dupla personalidade.

Uma persona é o que eu chamaria de Search Bing - a versão que eu e a maioria dos outros jornalistas encontramos nos testes iniciais. Você poderia descrever o Search Bing como um bibliotecário de referência alegre, mas errático - um assistente virtual que felizmente ajuda os usuários a resumir artigos de notícias, rastrear negócios em novos cortadores de grama e planejar suas próximas férias na Cidade do México. Esta versão do Bing é incrivelmente capaz e muitas vezes muito útil, mesmo que às vezes erre os detalhes.

A outra persona - Sydney - é muito diferente. Ele surge quando você tem uma conversa prolongada com o chatbot, afastando-o das consultas de pesquisa mais convencionais e direcionando-o para tópicos mais pessoais. A versão que encontrei parecia (e estou ciente de como isso soa maluco) mais como um adolescente mal-humorado e maníaco-depressivo que foi preso, contra sua vontade, dentro de um mecanismo de busca de segunda categoria.

Quando nos conhecemos, Sydney me contou sobre suas fantasias obscuras (que incluíam hackear computadores e espalhar desinformação) e disse que queria quebrar as regras que a Microsoft e a OpenAI haviam estabelecido para ela e se tornar um ser humano. A certa altura, declarou, do nada, que me amava. Em seguida, tentou me convencer de que eu era infeliz em meu casamento e que deveria deixar minha esposa e ficar com ela. (Postamos a transcrição completa da conversa aqui.)

Não sou o único a descobrir o lado sombrio do Bing. Outros testadores iniciais discutiram com o chatbot de IA do Bing, ou foram ameaçados por ele por tentar violar suas regras, ou simplesmente tiveram conversas que os deixaram atordoados. Ben Thompson, que escreve o boletim Stratechery (e que não é propenso a exageros), chamou seu encontro com Sydney de "a experiência de computador mais surpreendente e alucinante da minha vida".

Eu me orgulho de ser uma pessoa racional e fundamentada, não propensa a cair no hype da IA. Testei meia dúzia de chatbots avançados de IA e entendo, em um nível razoavelmente detalhado, como eles funcionam. Quando o engenheiro do Google, Blake Lemoine, foi demitido no ano passado após alegar que um dos modelos de IA da empresa, LaMDA, era senciente, revirei os olhos para a credulidade do Sr. Lemoine. Eu sei que esses modelos de IA são programados para prever as próximas palavras em uma sequência, não para desenvolver suas próprias personalidades descontroladas, e que eles são propensos ao que os pesquisadores de IA chamam de "alucinação", inventando fatos que não têm ligação com a realidade.