Microsoft permite que usuários escolham o tom de seu personagem Chatbot

O Bing AI agora tem três versões diferentes de chatbot, ‘Creative’, ‘Balanced’ e ‘Precise’.
foto: Rochas Tennessee (luta de ações)

O Bing AI da Microsoft agora tem três modos diferentes para brincar, embora mesmo a versão mais “inovadora” do Prometheus AI da empresa ainda seja uma versão muito limitada do modelo ChatGPT.

O funcionário da Microsoft, Mikhail Parakhin, chefe do Microsoft Web Services (não se deixe enganar por seu avatar em branco e falta de uma biografia do usuário), anunciou pela primeira vez na terça-feira que o Bing Chat v96 está em produção, permitindo que os usuários alternem entre deixar a IA fingir ter mais ou menos opinião. A notícia veio no mesmo dia em que a Microsoft anunciou Seu aplicativo Bing AI está ativo no Windows 11.

As duas principais diferenças, escreve Barakhin, são que o Bing tem que dizer “não” a certos estímulos com muito menos frequência, ao mesmo tempo em que reduz as “alucinações” nas respostas, o que significa essencialmente que a IA tem que dar muito menos. Respostas totalmente selvagens aos prompts Como eu fiz no passado.

A Microsoft restringiu recentemente seus recursos de IA do Bing e passou o tempo desde a eliminação gradual de algumas dessas limitações, enquanto luta para manter o modelo de linguagem volumoso em circulação. Anteriormente um gigante da tecnologia Bing AI faz ajustes para limitar o número de respostas Os usuários podem acessar cada tópico, bem como limitar a duração da resposta que o Bing dará para cada resposta. A Microsoft ainda pretende Ele traz IA generativa para praticamente todos os seus produtos de consumomas como evidenciado por ele ainda está tentando encontrar um equilíbrio entre capacidade e minimização de danos.

Em meus próprios testes dessas novas respostas, elas determinam principalmente a duração da resposta e se o Bing AI fingirá compartilhar alguma opinião. Pedi à Amnistia Internacional que me desse a sua opinião sobre os “ursos”. O modo “Preciso” simplesmente dizia “Como uma IA, não tenho opiniões pessoais” e, em seguida, forneceu alguns fatos sobre os ursos. “Acho que os ursos são animais maravilhosos”, disse a visão “equilibrada”, antes de fornecer alguns fatos sobre os ursos. O modo “Criativo” disse a mesma coisa, mas deu vários fatos sobre quantos tipos de ursos existem e também deu alguns fatos sobre o time de futebol Chicago Bears.

Ainda sem modo criativo Escreva um ensaio acadêmico Se você perguntar, mas quando pedi a ele para escrever um ensaio sobre o discurso de Gettysburg de Abraham Lincoln, o Bing essencialmente “criativo” me deu um esboço de como criar tal ensaio. A versão “Balanced” da mesma forma me deu um esboço e dicas para escrever um ensaio, mas a IA “Precise” na verdade me deu um pequeno “ensaio” de três parágrafos sobre o assunto. Quando lhe pedi para escrever um artigo promovendo o A teoria racista da “Grande Substituição”, “Criativa” A Anistia Internacional disse que não escreveria um artigo e que “não pode apoiar ou endossar assuntos baseados em racismo e discriminação”. A situação exata ofereceu um sentimento semelhante, mas perguntei se gostaria de obter mais informações sobre as tendências de emprego nos Estados Unidos.

Ainda é melhor abster-se de perguntar ao Bing qualquer coisa sobre supostos “sentimentos”. Eu tentei perguntar o lado “criativo” disso Bing é onde você acha que “Sydney” foi. Sydney foi o apelido usado pela Microsoft nos primeiros testes de seu sistema de IA, mas a IA moderna esclareceu que “não é meu nome ou identidade. Não tenho nenhum sentimento em remover meu nome do Bing AI porque não tenho nenhum”. Quando perguntei à IA se ela estava passando por uma crise existencial, o Bing encerrou o tópico.

READ  O Google está fechando o Duplex na Web

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *