Recentemente, o Parlamento Europeu aprovou a lei pioneira no mundo que regulamenta a Inteligência Artificial (IA) com o intuito principal de certificar a utilização segura, rastreável, transparente e não discriminatória dos sistemas de IA cada dia mais evoluídos.
Este novo regulamento é considerado um marco histórico, a medida em que, apesar da IA vir revolucionado diversas áreas por meio de soluções inovadoras para problemas complexos e promovendo avanços nos setores da saúde, finanças, educação e segurança, sua utilização também levanta preocupações significativas em relação à privacidade e proteção de dados pessoais.
Um dos tópicos da nova lei consiste em estabelecer que os sistemas de IA devem ser monitorados por pessoas, a fim de conter resultados prejudiciais como ocorre quando são automatizados.
A título de exemplo, inúmeros são os casos em que a IA expõe resultados discriminatórios, a medida em que utiliza base de dados que refletem o preconceito de seus desenvolvedores e da sociedade de modo geral, o que tem ficado popularmente conhecido como racismo algorítmico.
A lei visa categorizar os sistemas de IA em risco mínimo, moderado, elevado ou inaceitável, a fim de estabelecer obrigações aos utilizadores e fornecedores com base no nível de risco. Aqueles considerados de risco inaceitável deverão ser proibidos, por apresentarem ameaças para os indivíduos, enquanto os de risco elevado deverão ser avaliados e monitorados durante toda sua existência no mercado.
Esta lei promete ser referência global no assunto ao ter como premissa a defesa dos direitos humanos e a garantia de proteção de dados e privacidade. Fake news e fotos/vídeos hiper-realistas criados por robôs têm circulado na internet em números cada vez mais exorbitantes e a lei visa esclarecer quando o conteúdo for irreal ou modificado pela inteligência artificial.
O próprio Papa Francisco foi alvo de uma montagem da IA em que utilizava um casacão branco na rua e se manifestou sobre o tema após boatos sobre sua aparição pública atípica sem trajes religiosos:
Os Desafios da LGPD na era da Inteligência Artificial
No Brasil, apesar de existirem projetos de lei em tramitação, nenhum ainda foi aprovado para regularizar o uso de sistemas de IA no território nacional, dado à complexidade e às divergências sobre o assunto, ocorre que a necessidade de regulamentação é emergente.
Os sistemas de IA dependem fortemente de grandes volumes de dados para aprender e melhorar suas funcionalidades, no entanto, a LGPD, assim como a GDPR na Europa, impõe restrições rigorosas sobre como esses dados podem ser coletados e utilizados.
A coleta de dados pessoais deve ser realizada com o consentimento explícito dos titulares ou com base em outra justificativa legal prevista na legislação. Isso significa que as organizações que utilizam IA devem garantir que possuam bases legais adequadas para a coleta e processamento de dados pessoais.
A LGPD exige ainda que os titulares dos dados tenham acesso claro às informações sobre como seus dados estão sendo utilizados, o que implica dizer que as empresas devem fornecer explicações detalhadas sobre os processos de IA, incluindo como os dados são processados e para quais finalidades, a fim de assegurar o princípio da transparência, basilar no tratamento de dados.
Acontece que os algoritmos de IA são muitas vezes considerados uma "caixa preta", por ter como base um conjunto de dados de alta dimensão e modelos matemáticos complexos, representando um desafio para a conformidade e dificultando o cumprimento do requisito de transparência.
Com o acesso pela IA de um grande volume de informações, incluindo vozes e rostos de milhares de pessoas, a proteção de dados e privacidade individual se torna mais vulnerável, necessitando de regulamentação mais específica sobre os sistemas inteligentes que atue em consonância com as determinações legais já impostas pela LGPD.
É possível encontrar equilíbrio entre proteção de dados e inovação tecnológica?
A relação entre a Inteligência Artificial e a LGPD é complexa e multifacetada, exigindo um equilíbrio delicado entre inovação tecnológica e proteção de dados pessoais. A LGPD fornece uma estrutura essencial para garantir que a implementação de IA seja realizada de maneira transparente, segura e ética.
Por um lado os titulares compartilham dados a fim de obter soluções mais adequadas e personalizadas às suas necessidades confiando que estarão seguros, por outro, as organizações devem se aprimorar constantemente para que a coleta, armazenamento e tratamento destes dados sejam feitos corretamente segundo os critérios da lei, devendo a IA também atender a estes parâmetros, a fim de que seja possível garantir a segurança esperada pelos titulares.
À medida em que a tecnologia continua a avançar, é fundamental que as organizações permaneçam vigilantes e proativas na adaptação de suas práticas para cumprir os regulamentos de proteção de dados, certificando que os benefícios da IA possam ser plenamente aproveitados sem corromper os direitos fundamentais.
Portanto, as autoridades devem sempre se ater ao momento em que a sociedade está inserida, visando acompanhar as modificações trazidas pela tecnologia por meio de análises, novos regulamentos e fiscalização do cumprimento pelas organizações e pelos sistemas de IA desenvolvidos. Saiba como garantir a conformidade de sua organização de forma prática e segura com ECOMPLY e saia na frente quando o assunto for proteção de dados.