TI INSIDE | GPT-4, DA INOVAÇÃO À CAUTELA: TRÊS PONTOS DE ATENÇÃO E RISCOS LEGAIS COM O USO DA FERRAMENTA

Por:
Públicada em: terça-feira, abril 18, 2023

Fonte: Ti Inside | Publicado em 14/4/2023 | Clique aqui e veja a publicação original

Recentemente a OpenAI disponibilizou a nova versão do ChatGPT (“Chat Genarative Pre-Trained Transformer”), um programa de Inteligência Artificial (IA) que, como o próprio nome já indica, foi e é treinado para produzir bate-papo em formato de textos. Fruto de contínua evolução de sistemas de inteligência artificial, o programa funciona como um chatbot com o qual o usuário interage fazendo perguntas ou fornecendo instruções do que deseja e recebe do ChatGPT aquilo que foi solicitado. As possibilidades são várias, como resumo de textos, elaboração de artigos a sobre um tema fornecido, traduções, recomendações, resolução de matemáticas e até a sugestões de correção em código-fonte de programas de computador. A nova versão do software, o GPT-4, inclusive, permite interpretar imagens.

Tais respostas chamam atenção em razão da adequação gramatical e semântica dos textos. Tudo isso é possível pois a ferramenta possui uma base de dados enorme, alta capacidade de processamento e foi treinada para utilizar os feedbacks recebidos dos usuários para aprimorar as próximas respostas. É o chamado “aprendizado por reforço com feedback humano” (RLHF, pela sigla em inglês).

Naturalmente, o ChatGPT possui limitações e riscos. Uma limitação é que as respostas são construídas com base nesses feedbacks e na base da aplicação. A ferramenta não faz pesquisas na internet, portanto, as respostas se limitam ao que a ferramenta “sabe” até o momento da última atualização da base de dados, o que, neste caso, ocorreu em setembro de 2021. Os riscos e incertezas ainda preocupam, principalmente em razão de a ferramenta aprender com os usuários que interagem com ela. A bem da verdade, talvez o maior risco esteja do lado de fora da ferramenta.

Disseminação de desinformação e preconceitos

Em uma sociedade dinâmica e marcada por diferenças culturais e sociais, talvez nenhuma ferramenta ou informação seja isenta de questionamento. Com o ChatGPT não seria diferente, até porque a base está limitada a conteúdos inseridos até 2021. A própria OpenAI reconhece que podem ser encontradas informações incorretas no ChatGPT, bem como pode reproduzir preconceitos, racismo, machismo ou, ainda, não parecerem ter sido construídas com base em algum treinamento – quando temos aquilo que vem sendo denominado de alucinações do ChatGPT. Ainda que a ferramenta seja dotada de revisão e moderação das respostas na etapa de treinamento e aprendizagem (fator aprimorado na última versão disponibilizada), o risco de criar e reproduzir informações falsas ou inadequadas é de difícil afastamento.

Aqui vale um exemplo hipotético, mas preocupante. É possível pedir ao ChatGPT para criar textos com “discurso político” do candidato A, B ou C. Em outra ponta, tem-se ferramentas de deepfake, capazes de criar ou substituir rostos. Combinando os dois, o resultado seria um vídeo que simula a presença e o discurso de alguém com ainda mais precisão e qualidade.

Direitos autorais

As discussões em torno do ChatGPT acerca de direitos autorais passam tanto pela autoria dos textos produzidos pela ferramenta quanto por eventuais textos e obras utilizados pela plataforma para elaborar a resposta. No primeiro ponto, a legislação brasileira determina que, para a proteção legal, a obra precisa ser feita por um ser humano, o qual se valerá de certa criatividade e inspiração para produzi-la. Sem inspiração, ou sem intervenção humana, um texto produzido por uma inteligência artificial seria da própria inteligência. Porém, em virtude de a autoria ser restrita a humanos, haveria uma lacuna ou dificuldade em se determinar o real autor, chegando a ser defendido por alguns que o texto seria de domínio público. A questão não é tão cartesiana e simples, até porque a legislação autoral não esclarece o tema 100%. Além disso, o ChatGPT possui um termo de uso que criará obrigações privadas entre a plataforma e o usuário, de modo que possam ser criadas regras para o uso e/ou responsabilidade pela utilização dos textos ali criados.

Por outro lado, partindo da premissa de que o ChatGPT está atrelado a uma grande base de dados e que eventuais respostas possam ter referências a obras autorais, estaria a ferramenta violando direitos autorais? Neste caso, quem seria o responsável pela violação? Naturalmente, o uso da ferramenta resultará em desafios de identificação de autoria, plágio e afins. Vale lembrar que o ChatGPT não indica as fontes ou links que justificam a resposta. Essas questões estão em aberto e precisarão ser endereçadas pelo Judiciário e/ou novas legislações.

Para fechar (ou deixar ainda mais em aberta) a discussão sobre esse ponto, estão sendo lançadas ferramentas que pretendem identificar se o texto foi produzido por humano ou IA para auxiliar na identificação de autoria – ferramentas que certamente auxiliarão escolas e faculdades na avaliação dos textos apresentados por alunos, por exemplo.

Riscos cibernéticos

O ChatGPT possui filtros e moderações com o intuito de atribuir controles e segurança às respostas. Contudo, conforme apontado pela Forbes, pesquisadores da CyberArk, empresa focada em segurança cibernética, afirmaram ter conseguido criar malwares usando a plataforma da OpenAI, burlando os filtros políticos e de conteúdo do ChatGPT. Ainda que o resultado seja questionável, a publicação destaca que o perigo não é esse resultado, mas o fato de o ChatGPT aprender com exemplos. Quanto mais exemplos ruins, mais saídas similares serão fornecidas ao longo do tempo.

Um outro estudo, conduzido pela Check Point Research, demonstrou que cibercriminosos estariam utilizando o ChatGPT para criar e-mails “convincentes” para phishing, mostrando os caminhos inadequados que a humanidade pode dar à ferramenta.

O fato é que as tecnologias baseadas em Inteligência Artificial vieram para ficar e já são utilizadas por grandes empresas para aprimorar os próprios produtos e serviços. Elas também são discutidas no meio acadêmico e devem, com alguma urgência, serem objeto de apreciação dos legisladores para que a sociedade esteja preparada para lidar com os dilemas decorrentes dos impactos que elas produzirão. O Brasil tem sido um dos países pioneiros nessa regulamentação da IA, conforme se vê no avançar do PL 21/2020 – em trâmite no Congresso Nacional – em que pese o texto proposto pela comissão de juristas ter sido alvo de críticas por parte da iniciativa privada.

Filipe Ribeiro Duarte, Coordenador da equipe de Direito Digital do Martinelli Advogados.

FALE COM A NOSSA EQUIPE




    TI INSIDE | GPT-4, DA INOVAÇÃO À CAUTELA: TRÊS PONTOS DE ATENÇÃO E RISCOS LEGAIS COM O USO DA FERRAMENTA | Martinelli Advogados

    Cadastre-se agora!

    Deixe seu email para receber novidades do Martinelli.