A Itália baniu o ChatGPT, mas sua repressão funcionará?
Em 31 de março, a Itália tornou-se o primeiro país ocidental tomar medidas contra um chatbot de IA, pedir um banimento temporário no ChatGPT. A autoridade de proteção de dados da Itália disse que a OpenAI, criadora do ChatGPT, coleta dados pessoais ilegalmente.
“[T]Parece não haver base legal aqui para apoiar a coleta massiva e o processamento de dados pessoais para ‘treinar’ os algoritmos nos quais a plataforma se baseia.” a agência escreveu. Ele também citou a tendência do ChatGPT de cometer erros factuais e a falta de verificação de idade do aplicativo.
Lançado há apenas cinco meses, o ChatGPT usa inteligência artificial para gerar conteúdo em linguagem natural. As pessoas o usam para redigir e-mails, redigir ensaios e escrever códigos. O frenesi em torno do ChatGPT levou outras empresas a lançar chatbots semelhantes ou fornecer serviços que usam a tecnologia.
O vice-primeiro-ministro da Itália criticou a decisão da agência de proteção de dados. “Acho desproporcional a decisão da Garantia de Privacidade”, Matteo Salvini, escreveu no Instagram. “[W]Não precisamos ser hipócritas: questões de privacidade afetam quase todos os serviços online, é preciso bom senso.
G/O Media pode receber uma comissão
A proibição ocorre em meio ao crescimento se preocupa com os riscos de IA. Líderes de tecnologia como Elon Musk e Apple O cofundador Steve Wozniak assinou uma carta pedindo uma pausa no treinamento de modelos de IA mais poderosos que o ChatGPT para desenvolver e implementar protocolos de segurança.
Regulamentar chatbots é mais fácil falar do que fazer
Não está claro se a proibição da Itália terá o efeito desejado. IA generativa se alimenta de bate-papo e serviços digitais do Microsoft Bing como preguiçoso e Ampliação. Enquanto isso, o Bard do Google, rival do ChatGPT, não se enquadra na proibição.
Especialistas em IA pediram aos legisladores que façam perguntas difíceis sobre como a tecnologia está sendo implementada e quem a está implementando. Aleksander Mądry, professor de computação no Massachusetts Institute of Technology, disse a um painel do Congresso em março que nem os especialistas entendem exatamente por que o ChatGPT gera o que faz.
Como resultado, quando se trata de regular esses sistemas, os governos não podem elaborar políticas como fazem com os humanos, de acordo com Mądry. Ele também disse ao painel que, como as empresas geralmente colocam outra IA em cima de uma tecnologia básica como o ChatGPT, é difícil saber quem é o responsável quando surge um problema sobre o uso de um serviço de IA.
Em comunicado, a OpenAI disse que está trabalhando para reduzir os dados pessoais em seus sistemas de treinamento de IA, como o ChatGPT, e que A regulamentação da IA é necessária. “Estamos ansiosos para trabalhar de perto com [the Italian data agency] e educá-los sobre como nossos sistemas são construídos e usados”, a empresa ditado.