A inteligência artificial (IA), na maior parte do tempo, é uma infraestrutura invisível que condiciona as nossas compras, assim como o que devemos ouvir, ler e seguir nas redes sociais, por intermédio do aprendizado de algoritmos, que por sua vez exige toda cautela, sob pena de direcionar a sociedade a reduzidos nichos de pensamento.
Infelizmente, na quadra atual, passamos para um novo estágio em que precisaremos aprender a identificar se as vozes e os rostos de celebridades
promovendo produtos ou ideias são verdadeiros (e não um deep fake), ou se um livro foi escrito fielmente por um ser humano, e não por uma máquina, tal como ocorreu com 5% do Tokyo-to Dojo-to, de Rie Kudan, o que também nos leva às discussões éticas e, sobretudo, nos remete à importância não somente de sua regulação, mas como educarmos a população para compreender e identificar estes casos, a partir de qual idade e as metodologias disponíveis.
Desde 2017 a China revelou seu Plano de Desenvolvimento de Inteligência Artificial, que tem por escopo torná-la líder global até 2030, por intermédio de
investimentos maciços não somente em startups e laboratórios, mas notadamente na educação.
Este tópico suscitou uma reflexão sobre a partir de qual estágio da vida as crianças podem ser educadas no tocante à IA e à proteção de dados, e a resposta da China foi: desde o jardim de infância.
Com relativo atraso, somente em 2021 o Brasil publicou sua Estratégia Brasileira de Inteligência Artificial, contendo o eixo de capacitação voltado
predominantemente à graduação e à pós-graduação, mas com um objetivo de extrema relevância: aperfeiçoar a Base Nacional Comum Curricular (BNCC) para que, entre as competências a serem desenvolvidas na educação básica, a IA seja abordada a partir dos 4 anos de idade.
Essa política pública permanece no atual governo federal, como se infere da Estratégia para a transformação digital 2022-2026, tendo em vista que no eixo qualificações para um futuro digital propõe-se a criação de conceitos para o ensino fundamental, o médio regular e o profissionalizante que ressaltem a importância da IA e do seu uso qualificado.
Entretanto, até o presente momento não houve avanço na sua efetiva implementação, o que traz à tona o debate sobre como professores e educadores se habilitarão em relação a estes temas relevantíssimos que, para além da compreensão e da identificação pela população sobre deep fakes e outros engodos, implica a tentativa de solver as demandas do mercado, que, segundo o governo federal, necessitará de 70 mil novos profissionais ao ano nas áreas de big data, internet das coisas (ioT), segurança, nuvem e IA, uma vez que somente 46 mil profissionais com perfil nessas áreas se formam anualmente, o que se soma ao descasamento entre a oferta e a demanda de mão de obra nas Regiões Norte e Nordeste, em comparação com o restante do País.
Qual seria a razão deste déficit profissional no setor? De acordo com o governo federal, há informações sinalizando que o problema pode estar nos ensinos fundamental e médio, respectivamente de competência dos municípios e Estados, uma vez que menos de 20% dos estudantes se interessam por áreas relacionadas a ciência, tecnologia, engenharia e matemática.
Contudo, a qualificação para lidar com a IA demanda muito mais do que essas habilidades acima relatadas, uma vez que seu objetivo é tornar-se próxima do pensamento humano, e, portanto, há extrema necessidade de uma análise crítica, filosófica, ética e, acima de tudo, jurídica.
Dessa forma, em que pese a IA ser reconhecidamente uma disciplina acadêmica desde 1956, e detentora de quatro dimensões – conhecer e entender; usar e aplicar; avaliar e criar; e, por fim, aplicar todos esses conceitos de maneira ética –, hoje a discussão gira em torno de relevantes metodologias de ensino, desde a educação infantil até os cursos de Direito, em que a Comissão Especial de Revisão das Diretrizes Curriculares Nacionais, criada pela OAB, deverá esquadrinhar uma disciplina conjunta sobre IA e proteção de dados.
Ademais, muito pouco se tem discutido sobre a importância de que o estudo da inteligência artificial ande em sintonia com a proteção de dados, uma vez que estes são a fonte de alimentação e aprendizado da primeira. Trata-se do fenômeno conhecido como mineração de dados, que combina estatística com inteligência artificial, por intermédio da ciência de dados.
Essa inextricável ligação permitirá ao País o desenvolvimento da economia de dados (data economy), com vistas à criação de uma infraestrutura de armazenamento e compartilhamento do exponencial volume de informações essenciais para novos modelos de negócios, mas sempre condicionada à adequada proteção das informações pessoais e sensíveis, prevista na Lei n.º 13.709/2018.
Esta economia de dados vai além da perspectiva relativamente estreita de influenciar a rentabilidade, as avaliações de mercado ou a carga tributária das empresas, mas também visa à redução de custos, melhoria da eficiência e a busca por soluções inovadoras, seja no âmbito privado ou público, a ponto de a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) constatar que o investimento em inteligência de dados sistematicamente maior que o mero investimento em armazenamento de dados nas economias da Espanha, Suécia e Reino Unido fornece uma contribuição importante em termos de vantagens competitivas com outros países da Europa.
No Direito, este uso intensivo de dados suscitará muitos debates e, quiçá, o aperfeiçoamento da LGPD brasileira nos mesmos moldes do Regulamento Geral de Proteção de Dados da União Europeia, cujo artigo 24 resguarda a proteção de dados que visem a controlar comportamentos dos seus titulares, isto é, que possam definir o perfil de uma pessoa e influenciar as suas decisões, ou, ainda, analisar ou prever as suas preferências, o seu comportamento e as suas atitudes. São estes dados comportamentais que nas eleições poderão ser utilizados indevidamente. E, aparentemente, a minuta do Tribunal Superior Eleitoral (TSE) que dispõe sobre propaganda eleitoral, utilização e geração do horário gratuito e condutas ilícitas em campanha eleitoral, alterando a sua Resolução n.º 23.610/2019, se preocupou com o tema em seu artigo 33, §§ 1.º e 2.º, ao exigir registro específico e informação objetiva e explícita aos titulares no ato da solicitação do consentimento de uso dos dados para a formação de perfil comportamental, o que efetivamente suscita a importância de que o artigo 12, § 2.º, da Lei n.º 13.709/2018 seja aprimorado para efetivamente tutelar essa exigência – e, se o caso permitir, que sanções sejam aplicadas pela Autoridade Nacional de Proteção de Dados, que é a autoridade efetivamente competente para tratar do tema.
Conteúdo Original em Estadão. 09/04/2024