Steven A. Schwartz, em parceria com o advogado Peter LoDuca, representou um cliente contra uma companhia aérea por lesão corporal em 2019. Após a companhia solicitar o arquivamento do processo devido à prescrição, os advogados apresentaram petições com referências a casos anteriores para prosseguir com o julgamento.
No entanto, a empresa não encontrou os processos mencionados na petição, pois as informações eram falsas. O juiz exigiu explicações dos advogados e descobriu que uma pesquisa realizada por Steven A. Schwartz usando o ChatGPT continha informações falsas. Schwartz, com mais de 30 anos de experiência, admitiu o uso equivocado da IA, afirmando que não sabia que o chatbot poderia fornecer dados incorretos. Peter LoDuca, o outro advogado, não teve envolvimento na pesquisa.
No dia 8 de junho, os advogados compareceram a uma audiência onde receberam uma multa de US$ 5 mil (cerca de R$ 24 mil) impostas pelo juiz do caso. O juiz condenou a conduta dos juristas, acusando-os de má fé ao apresentar os casos falsos, e exigiu que enviassem cartas de retratação aos juízes mencionados no documento fraudulento.
No dia 8 de junho, os advogados compareceram a uma audiência onde receberam uma multa de US$ 5 mil (cerca de R$ 24 mil) impostas pelo juiz do caso. O juiz condenou a conduta dos juristas, acusando-os de má fé ao apresentar os casos falsos, e exigiu que enviassem cartas de retratação aos juízes mencionados no documento fraudulento.
Fique atento à limitação de dados atualizados. Embora ofereça informações abrangentes, o modelo baseia-se em uma base de dados com corte até 2021, o que pode resultar em respostas desatualizadas.
Cuidados essenciais ao utilizar o ChatGPT: O que você precisa saber
O modelo pode gerar respostas com base em informações incorretas da internet. Recomenda-se sempre verificar os dados antes de compartilhá-los para evitar a disseminação de desinformação e notícias falsas.
Acesse nosso site e saiba mais!