Cidadania

O ChatGPT está ficando mais matizado

IA aberta lançou o ChatGPT-4, o versão mais recente do seu chatbot que progrediu em ser mais preciso.

OpenAI afirma que ChatGPT-4 foi capaz de passar no exame da ordem com uma pontuação entre os 10% melhores participantes do teste. O chatbot não é apenas melhor para fazer cálculos mentais, mas também para explicar seu raciocínio.

O modelo mais recente também aceitará imagens agora e o chatbot descreverá a imagem. Em uma transmissão ao vivo em 14 de março, o presidente da OpenAI, Greg Brockman, foi mostrado carregando uma foto para o ChatGPT. A foto era de uma nota manuscrita descrevendo o que ele quer. para site para se parecer. A ferramenta gerava um código que você poderia usar para construir aquele site exato.

Treinamento ChatGPT-4

Como os modelos anteriores, ChatGPT-4 ele é treinado em uma grande quantidade de dados extraídos da Internet. O modelo foi treinado para prever a próxima palavra em um documento usando dados publicamente disponíveis e dados licenciados, de acordo com a empresa. A grande maioria dos seus dados, no entanto, é demetro antes Setembrofevereiro de 2021.

As empresas já estão integrando o modelo de linguagem grande em suas operações. Um escritório jurídico de IA chamado Casetext Anunciado que seu paralegal de IA, CoCounsel, é alimentado por ChatGPT-4, e a empresa afirma que passou nas partes escritas e de múltipla escolha do Exame de Ordem Uniforme. Exemplos de uso de IA No campo jurídico, vale destacar a elaboração de contratos para resumir leis complexas.

A OpenAI, com sede em San Francisco, também está por trás da arte visual. gerador dall-e. Enquanto isso, gigantes da tecnologia como Microsoft e Google estão trabalhando na criação de suas próprias ferramentas de IA generativas. A versão mais recente do OpenAI pode pressionar essas grandes empresas a alcançá-las.

ChatGPT-4 não é perfeito

Apesar de todo o hype em torno do ChatGPT, a tecnologia ainda apresenta vários problemas. Semelhante aos modelos anteriores, o OpenAI disse que o GPT-4 “meio-sangue” os fatos e faz com que o raciocínio dê errado.rezar, mas ele disse erros rO relativo aos modelos anteriores foi reduzido.

ChatGPT, disse a empresa em um postagem no blogele pode ser “excessivamente ingênuo ao aceitar respostas falsas óbvias de um usuário” e “ele também pode estar confiantemente errado em sua previsão, sem ter o cuidado de verificar novamente o trabalho quando provavelmente cometerá um erro”.

Para melhorar os modelos, a OpenAI disse que está selecionando e filtrando dados pré-treinamento, entre outras coisas. Em particular, o empresa avisou o anúnciorecursos adicionais oufGPT-4 poderia carregar new riscos, que requerem perícia externa para avaliar.

Para entender o escopo dos riscos, a startup disse que está incorporando feedback e dados de 50 especialistas em áreas como riscos de alinhamento de IA, segurança cibernética, risco biológico, confiança e segurança e segurança internacional para detalhar o modelo. As descobertas são então incorporadas às melhorias do modelo. Por exemplo, a partir desse envolvimento, ele coletou dados para melhorar a capacidade do ChatGPT de rejeitar solicitações sobre como sintetizar produtos químicos perigosos.

Source link

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo