Profissionais abordaram questões relativas aos seguros no Projeto de Lei n. 2338/2023, como Classificação dos Riscos, Responsabilidade Civil e uso de IA nos contratos de seguro brasileiros
Na última terça-feira (24), a Associação Internacional do Direito do Seguro – AIDA Brasil – realizou um evento virtual com o tema “Projeto de Lei de Inteligência Artificial e Seguros: Principais Aspectos”. Abertura e a moderação da live ficou por conta da vice-presidente do GNT de Inovação da associação, Niris Cunha. O evento teve a participação de outros membros do grupo, como Anthony Novaes, como expositor, e Mariana Barcellos, debatedora, no primeiro painel. Também contou com as presenças de Landulfo Oliveira, como expositor, e de Juliana Mara da Silva, como debatedora, no segundo painel. Após uma breve apresentação do grupo e a contextualização do tema – o cenário e a importância do PL a ser estudado – foi dado início aos painéis. Ao final das exposições os convidados participaram de uma mesa redonda, com debate sobre a inteligência artificial nos contratos de seguro
Como sintetizado pela ANPD [1] ao noticiar a publicação de sua análise preliminar do PL 2338/23, “no Brasil, a regulação da Inteligência Artificial teve um início em resposta a um rápido avanço e adoção dessa tecnologia nos diversos setores da sociedade. A necessidade de estabelecer diretrizes para garantir ética e transparência é a responsabilidade do uso da AI e o que motivou o poder público a adotar medidas regulatórias. Em 2020, foi proposto na Câmara dos Deputados, por iniciativa do deputado federal Eduardo Bismarck, o projeto de lei de número 21/2020, que estabeleceu o Marco legal do desenvolvimento e uso da Inteligência Artificial pelo poder público, por empresas, entidades diversas e pessoas físicas. A partir do PL 2120, as discussões a respeito do tema se intensificaram.
Em 2022, foi formada no Senado uma comissão de juristas responsáveis para subsidiar e elaborar uma minuta do substitutivo, a partir do projeto de lei 5051/19, de autoria do senador Styvenson Valentim, o PL 2120, do deputado federal Eduardo Bismarck, e o 872/21 do senador Veneziano Vidal do Rêgo. Com a criação da comissão houve um avanço significativo do tema, pois a partir desta foram realizadas diversas audiências públicas, reunindo mais de 50 especialistas em formato multissetorial, contando com a participação de representantes do poder público, setor empresarial, sociedade civil e comunidade científica.”
Em maio de 2023, a comissão elaborou um relatório final de conclusão dos trabalhos, o qual incluiu o anteprojeto de lei que foi convertido no PL 2338/23, apresentado pelo senador Rodrigo Pacheco, presidente do Senado Federal. É esse projeto de lei (2338/23) que o nosso grupo de trabalho vem estudando. O grupo é composto por pessoas interessadas no tema de inovação e seguro e se reúne nas segundas segundas-feiras de cada mês para trabalhar e pesquisar questões do projeto.”
A metodologia de pesquisa utilizada foi a divisão por artigos desse, projeto onde cada membro/ componente do grupo fez um paralelo com o seguro. O grupo se dedica a acompanhar esse assunto de interesse das atividades do seguro sob o enfoque da Inteligência Artificial, porque entendemos a relevância e a importância desse projeto para o mercado securitário. “Esse ano nós elegemos o projeto e, hoje, nessa live, escolhemos dois temas cujo debate entendemos ser importante, que são a questão dos riscos e a questão da responsabilidade civil”, disse a Dra. Niris Cunha.
O Dr. Anthony deu início aos painéis falando sobre a classificação de riscos no PL 2338 e as repercussões práticas disso para o seguro. Sua apresentação é fruto da pesquisa realizada sobre o tema e, analisando o projeto de lei, foram encontrados vários possíveis impactos para os seguros. As soluções de inteligência artificial para os seguros não são um passado, mas sim o presente e já têm sido utilizadas por diversas empresas. Nesse sentido, considerou adequado primeiramente comentar sobre o espírito dessa lei e a regulamentação de IA que foi proposta aqui no Brasil. O PL 2368/23 está atualmente sendo avaliado no Senado. A intenção da legislação proposta é regulamentar de maneira geral as aplicações de Inteligência Artificial e não tratar especificamente cada possibilidade específica de uso, refletindo muito a legislação Europeia, o European Artificial Intelligence Act, da mesma forma como ocorreu no Brasil com a General Data Protection Regulation, a GDPR, que virou que inspirou muito a nossa LGPD.
A regulamentação europeia foi aprovada no Parlamento europeu em primeira votação e eles têm uma meta de completar essa votação até o final do ano, e dois problemas que já saltam aos olhos quando a gente pensa nessas soluções de IA são o da black box e da discriminação automatizada. “A gente tem esse mito de que a solução de inteligência artificial é isenta e é neutra, mas na verdade ela não é neutra. Ela reproduz os defeitos dos seres humanos que criam essas soluções”, ponderou.
No que diz respeito ao projeto de lei, o artigo 17, que trata de soluções de IA de alto risco, contém alguns incisos que trazem informações com potencial repercussão para os seguros. O inciso 4 fala de soluções de IA que avaliam critérios de acesso, elegibilidade, concessão, revisão, redução ou renovação de serviços privados e públicos como sendo considerados essenciais, o que faz pensar, por exemplo, nos seguros obrigatórios para algumas atividades. O inciso 5 fala da avaliação da capacidade de endividamento de pessoas naturais ou o estabelecimento de sua classificação de crédito, o que faz pensar na contratação de seguros, porque funcionam de uma maneira similar às instituições financeiras, com a questão de concessão de aprovação de crédito etc., porque cada seguradora concede um limite definido para cada segurado, seja pessoa física ou jurídica, para que ele possa contratar apólices. O inciso 8 fala de veículos autônomos, quando o seu uso puder gerar riscos à integridade física das pessoas, remetendo aos seguros de automóvel.
O inciso 9 fala de aplicações na área da saúde, inclusive as destinadas a auxiliar diagnósticos e procedimentos médicos, o que resvala em produtos de seguro saúde. E o inciso 10º fala de sistemas biométricos de identificação, o que faz pensar em produtos de seguros com uso de biometria. Quando se pensa em seguro saúde, que é uma coisa muito fomentada pelo ODS3, (Agenda 2030), é cada vez mais frequente que as empresas usem dispositivos biométricos e wearables, soluções tecnológicas que permitem monitoramento em tempo real das condições clínicas de um paciente, para que a medicina sirva muito mais à prevenção que à intervenção reativa quando o estado de saúde de alguém se deteriora.
O artigo 18 fala ainda sobre soluções de IA de alto risco ou risco excessivo, com uma lista de sistemas de IA de risco excessivo ou de alto risco vai ser avaliada periodicamente e atualizada pela autoridade competente com base em alguns critérios, dentre os quais o palestrante destacou os seguintes: implementação em larga escala; impacto negativo para a utilização de um serviço; alto potencial danoso material e moral ou discriminatório; afetar pessoas de um grupo específico vulnerável (por exemplo, crianças/idosos); resultados prejudiciais irreversíveis ou difícil reversão; um sistema similar ter causado anteriormente danos materiais ou morais e um alto nível de identificabilidade dos titulares dos dados, sejam dados genéticos, biométricos, dados por combinação, por correspondência ou comparação de dados de várias fontes.
“Trazendo um exemplo prático, hoje a gente já tem seguradoras e insuretchs usando soluções de IA. Também tem operadoras de saúde usando algoritmos para tomar decisões automatizadas em relação à aprovação ou recusa de sinistros. Exemplos disso são aprovação ou negativa de cobertura para procedimentos médicos, precificação personalizada de apólices, análise de riscos de sinistros em tempo real, previsão de demanda e comportamento de clientes, assistência virtual ao cliente e também detecção de fraudes”, relatou.
A Dra. Mariana iniciou sua participação dizendo que, independentemente de qualquer nova regulamentação, o que ela enxerga é que muitas empresas ainda estão um pouco incipientes na questão do seu compliance interno, na sua governança interna. Ela orienta que é importante já deixar as coisas bem ajustadas antes de a gente colocar o elemento inteligência artificial. “Porque esse só vai ser mais uma agravante a depender das regulações específicas.”. Complementou ainda sobre a possibilidade de a ANPD ser a autoridade reguladora de IA por conta da consulta pública ao Sandbox aberto no mês de outubro: “Apesar deste primeiro passo dado pela ANPD, ainda tenho dúvidas se esta é a Autoridade mais competente, em sentido amplo, para a regulação do uso desta tecnologia. Não se pode deixar de considerar que cada setor do mercado tem as suas especificidades, e talvez a criação de comitês setoriais que, reunidos, atuem em conjunto, seja uma saída mais eficaz”.
O Dr. Landulfo Oliveira e a Dra. Juliana Mara falaram sobre responsabilidade civil, tema que foi objeto de suas pesquisas durante esse ano após a publicação do projeto de lei. “Todo esse desenvolvimento tecnológico com o qual nós convivemos aí nas últimas duas décadas trouxe muitas vantagens, muitos benefícios, no ambiente do mercado de seguros, na regulação de sinistro, na precificação, na subscrição de riscos. Mas também vieram aí a reboque muitos riscos, o que nos leva a falar de responsabilidade civil, de dano e de indenizações. Riscos não apenas para indivíduos, mas para os valores fundamentais da sociedade e do Estado de Direito. São diversos os riscos embutidos em Sistemas de Inteligência Artificial”, avaliou.
Esse lado maléfico precisa ser tratado, encarado sob o ponto de vista dos danos que pode vir a causar. E é através dessa análise e todo esse olhar sobre o risco e a responsabilidade que o capítulo reservado no projeto de lei 2338 tem três artigos tão somente ali indicados para a responsabilidade civil. Mas todo o restante do projeto refere-se ora à responsabilidade ora à responsabilização, quanto à auditoria, quanto à governança, que são aspectos que vão perpassar essa ideia de proteção também para os usuários e para a sociedade, a partir dos usos da Inteligência Artificial.
“Temos de ter muito cuidado porque não estamos falando apenas de proteção de dados. Não estamos falando de um nicho de mercado. Nós estamos falando de um uma atuação, de um mecanismo, de novos conceitos que vão abranger a sociedade como todo. Então é preciso muito cuidado nessa questão de eleger um ente para regulação. Esse ente deverá monitorar a gestão dos riscos do sistema de inteligência artificial no caso concreto avaliando os riscos de aplicação e as medidas de mitigação em sua área de competência. Deve ainda estabelecer direitos e deveres e responsabilidades”, pontuou.
Landulfo trouxe para os espectadores um pouco das opiniões de juristas e da sociedade e de entidades a respeito da viabilidade de um PL fazer uma regulação, uma legislação sobre responsabilidade civil. Ao longo de sua participação o convidado comentou detalhes de outros artigos e incisos. Segundo o palestrante, são vedadas a implementação e o uso de sistema de Inteligência Artificial que empreguem técnicas subliminares, ou que tenham por objetivo produzir efeito à pessoa a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança ou contra os fundamentos da lei. “Essa é a tônica. Não vamos permitir, como já vimos em determinadas situações, em casos concretos de sistema automatizado de Inteligência Artificial que induziu inclusive pessoas o suicídio. Isso é uma preocupação do legislador”, salientou
Quanto a alto risco Landulfo destacou alguns pontos em sua apresentação que ele entende que valem ser evidenciados. Além da visão de professores/estudiosos, ele compartilhou a opinião de entidades sobre o tema. A CNseg pontuou que é preciso realizar particularização das responsabilidades e obrigações que devem recair sobre os desenvolvedores e operadoras “Acredita-se, por fim, não ser possível criar, ajustar nesse momento uma proposta, uma teoria para o direito dos danos em sede de Inteligência Artificial, dada a possibilidade de se escolher um só regime quando se tem uma grande pluralidade de circunstâncias relativas a esses sistemas”, concluiu
Para Juliana Mara, o que chama atenção em relação à interrelação da regulação da Inteligência Artificial com a atividade de seguro é que a questão pode receber enfoque por dois ângulos: primeiro olhando para a operação securitária como uma solução e também olhando para a operação securitária como demandante de Inteligência Artificial, usuária operadora de Inteligência Artificial. “Vejo que a inteligência artificial além de benefícios vai criar riscos. A ideia é que ela erre menos do que o ser humano, mas ainda assim, haverá erros. O seguro obrigatório é citado, inclusive em normativas principiológicas do Parlamento europeu, como uma solução de mitigação dos riscos da IA. Trazendo essa diferente realidade para o Brasil, eu imagino que a gente precisa ter cautela , ponderar as devidas proporções, as peculiaridades e particularidades da nossa nação, devido à diversa realidade econômica e social, aos players existentes, níveis de riscos diferentes… indicou.
Se detectarmos que uma dada aplicação de Inteligência Artificial autônoma ou semiautônoma gera um risco dentro da categoria que os palestrantes demonstraram, nos artigos 17 a 19, se se enquadrar num risco alto, a responsabilidade será integral e objetiva. Há a necessidade então de as seguradoras se atentarem aos seus mecanismos de compliance interno, exigindo-os também dos parceiros que elegem para agregarem à sua cadeia de valor, no emprego da inteligência artificial.
Juliana cita que, devido à prevalência da responsabilidade civil na modalidade objetiva, e no manejo da inteligência artificial, tanto melhor que se possa demonstrar a proatividade para gerenciamento do risco. “É mais interessante recompensar virtudes, ou seja, agentes que atuam com a inteligência artificial, possam demonstrar suas virtudes, isto é demonstrar a proatividade para gerenciamento do riscos, mecanismos de análise de impacto do risco, para que não venham a ser punidos. Acho interessante essa ideia de demonstrar mecanismos de compliance”, concluiu Juliana. A última colocação da palestrante foi em relação à posição de algumas pessoas que apoiam a manutenção dos mecanismos atuais, o panorama atual de proteção já presente no código de defesa do consumidor e as demais normativas do Código Civil, e expõe sua visão de insuficiência do panorama legislativo atual, pois há necessidade de prever os mecanismos da responsabilidade civil, para que andem juntos inovação, desenvolvimeto tecnológico, desenvolvimento econômico e social, em cumprimento dos desígnios da Constituição Federal e também a defesa dos direitos fundamentais de toda pessoa natural.
Assista a live completa no canal da AIDA
[1] www.gov.br/anpd/pt-br/assuntos/noticias/anpd-publica-analise-preliminar-do-projeto-de-lei-no-2338-2023-que-dispoe-sobre-o-uso-da-inteligencia-artificial