Marco Legal da IA e LGPD: novos desafios na privacidade
Marco Legal da IA e LGPD: novos desafios na privacidade e enriquecimento de dados
Compartilhe:
Assine nossa newsletter

Fique por dentro das melhores notícias, eventos e lançamentos do mercado




    Marco Legal da IA e LGPD: novos desafios na privacidade e enriquecimento de dados

    Publicado em: 11 de dezembro de 2023

    A LGPD e o Marco Legal da IA, ainda em discussão no Congresso, trazem novos desafios para o enriquecimento de dados

    A Lei Geral de Proteção de Dados Pessoais (LGPD), sancionada em 2018, e o Marco Legal da IA (Inteligência Artificial), ainda em discussão no Congresso, trazem novos desafios para o uso de técnicas de enriquecimento de dados, que consiste em agregar informações externas a um banco de dados, a fim de torná-lo mais completo e eficaz para análises, aprimorando a tomada de decisões nas companhias.

    Esse processo de aprimoramento de informações pode abranger, por exemplo, as preferências do cliente, o histórico de compras e os dados demográficos e de geolocalização. No entanto, o enriquecimento de dados pode entrar em conflito com princípios de privacidade e proteção de dados pessoais.

    Um dos pilares da LGPD é a garantia de transparência aos indivíduos sobre como seus dados pessoais são tratados. Ou seja, a Lei possui como objetivo proporcionar às pessoas maior controle sobre seus próprios dados pessoais. Logo, no contexto de enriquecimento de dados pessoais, é preocupante que informações adicionais sejam incorporadas sem uma autorização explícita do titular de dados.

    Além disso, nem sempre é possível rastrear a origem desses novos dados agregados. Nesse sentido, o consentimento do titular configura como forma mais transparente e direta para o enriquecimento de seus dados, permitindo-lhe concordar com o processo ou recusá-lo.

    Outro princípio fundamental da legislação consiste na finalidade. Isso quer dizer que os dados só podem ser usados para propósitos específicos e legítimos. Desta forma, as informações sobre a finalidade do enriquecimento e quais dados serão enriquecidos devem ser claras, garantindo-se transparência ao titular sobre como suas informações estão sendo utilizados. O enriquecimento, no entanto, não pode abrir espaço para o uso de dados pessoais para finalidades não previamente informadas ao titular, e, caso este recuse o enriquecimento de seus dados, sua decisão deve ser respeitada.

    Veja também: Por que o Marco Legal da IA é importante?

    O Marco Legal da IA também traz parâmetros para uso ético e responsável de dados e estabelece, por exemplo, que sistemas de IA devem ser guiados por fundamentos e princípios como transparência, não discriminação e responsabilização dos desenvolvedores e usuários de IA. O enriquecimento de dados, por vezes, contradiz esses princípios por envolver combinação de bancos de dados nem sempre auditáveis e potencialmente enviesados. Isso implica que as organizações que empregam Inteligência Artificial para aprimorar seus conjuntos de dados devem garantir que seus algoritmos sejam justos, não discriminatórios e que expliquem claramente como as informações são enriquecidas.

    É importante destacar que o Marco Legal da IA prevê, como direito das pessoas afetadas por sistemas de IA, a privacidade e a proteção de dados pessoais, assim como o direito à informação prévia quanto às interações com sistemas de IA. Em paralelo aos benefícios relacionados à melhoria da qualidade dos dados, trazidos pela utilização de IA no processo de enriquecimento de dados, o Marco Regulatório da IA traz riscos relacionados a não demonstração de conformidade, o que evidencia a necessidade das empresas de investir em expertise em IA.

    Diante desses desafios, fica evidente que o enriquecimento de dados requer uma abordagem cautelosa e responsável, dentro dos limites éticos e legais estabelecidos pela LGPD e pelo Marco Legal da IA. Isso inclui transparência sobre a origem dos dados agregados, consentimento dos titulares quando possível, uso responsável visando o bem comum e mecanismos de governança para avaliar e mitigar riscos à privacidade. Encontrar o equilíbrio entre inovação e proteção de direitos será fundamental nesse novo contexto.

    *Aline Noleto e Patrícia Domingues são consultoras de Data Privacy da Protiviti, empresa especializada em soluções para gestão de riscos, compliance, ESG, auditoria interna, investigação e proteção e privacidade de dados.

    Compartilhe:

    Publicações relacionadas

    Lei de Serviços Digitais: como a regulamentação deveria ser tratada no Brasil? 

    22 de janeiro de 2024

    A Lei de Serviços Digitais entrou em vigor na União Europeia em novembro de 2022, para regular o conteúdo online

    Leia mais

    Os impactos da conscientização na implementação da LGPD nas empresas

    4 de dezembro de 2023

    Os treinamentos e a conscientização em segurança conferem às organizações a capacidade de moldar uma cultura corporativa que reconhece a importância da privacidade

    Leia mais

    Cibersegurança na cadeia de suprimentos: como assegurar o controle digital sobre serviços terceirizados?

    1 de dezembro de 2023

    A cibersegurança na cadeia de suprimentos ganha cada vez mais importância ao garantir controle digital entre todos os serviços terceirizados.

    Leia mais

    Privacy by Design: como mitigar riscos na terceirização de processos da LGPD?

    27 de novembro de 2023

    Com a LGPD (Lei Geral de Proteção de Dados), muitas ações passaram a ser necessárias para que empresas pudessem cumprir com essa nova regulamentação. Ferramentas como o framework “privacy by design” ganham espaço nesse contexto. Dentro de um programa complexo para atender tanto a titulares de dados, demonstrar conformidade à ANPD (Autoridade Nacional de Proteção […]

    Leia mais