Julio Cesar Fort, Sócio e Diretor de Serviços Profissionais da Blaze Information Security.
Algoritmo nas redes sociais, automação de tarefas industriais e domésticas, além de análise de dados em diferentes campos. A Inteligência Artificial (IA) tem desempenhado um papel fundamental na transformação de várias esferas da sociedade moderna. Devido aos seu potencial na melhoria da qualidade de vida das pessoas e na simplificação de processos, essa tecnologia experimentou um crescimento exponencial, tornando-se rapidamente uma ferramenta indispensável em inúmeros setores.
De acordo com um levantamento do Itaú Unibanco, os gastos de brasileiros com IA se expandiram em 120%, em comparação com o mesmo período do ano anterior. Além disso, 41% das empresas brasileiras vêm implementando ativamente essa ferramenta, segundo uma pesquisa de mercado encomendada pela IBM. Por conta dessa rápida ascensão, embora benéfica, a tecnologia ainda possui alguns desafios substanciais.
Questões éticas, transparência e preconceito algorítmico, precisam de mais destaque para garantir o uso responsável da IA. Mas um destaque fica para a segurança, à medida que a tecnologia proporciona conveniências e automação para indivíduos tanto em suas vidas pessoais quanto em seus locais de trabalho, também é explorada por cibercriminosos como meio de aprimorar seus ataques na internet.
O FBI já chegou a emitir um alerta a executivos, pesquisadores e engenheiros de empresas de tecnologia e startups trabalhando com IA para a ameaça crescente de vazamento de propriedade intelectual. Do outro lado do Atlântico, a Agência de Cooperação Policial da União Europeia, Europol, também já chegou a advertir no mesmo sentido. Além disso, já foi comentado a realização de ataques de “spear phishing” usando o ChatGPT.
Nesse contexto, existe uma solução que desempenha um papel fundamental ao estabelecer padrões pré-determinados que abordem problemas como esse de forma eficaz: a regulamentação.
Esse tipo de legislação é crucial para estabelecer padrões de interoperabilidade, usos aceitáveis e ética, permitindo uma abordagem padronizada internacionalmente. A nível nacional, ela é capaz de alinhar a adoção da IA com os valores e interesses do país. Regras claras podem mitigar riscos associados à invasão de privacidade e práticas monopolistas, assegurando que a tecnologia seja utilizada de forma benéfica.
No âmbito tecnológico, a criação de uma legislação nesse sentido pode facilitar a interoperabilidade entre sistemas e plataformas, incentivando pesquisa em áreas de interesse público e promovendo competição justa e melhoria contínua, o que assegura uma IA mais ética, eficiente e transparente.
Andamento da regulamentação
No Brasil, existem alguns projetos de lei que buscam regrar o desenvolvimento, a aplicação e o uso de sistemas de Inteligência Artificial tramitam no Congresso Nacional.
O projeto de lei 21/2020, conhecido como o marco legal para regulamentar o uso, por exemplo, enuncia princípios que deveriam guiar a aplicação da IA no país — respeito à dignidade humana, transparência nos algoritmos e proteção de dados pessoais. Já o 2338/2023, foi apresentado no Senado com o objetivo de estabelecer direitos ao cidadão afetado pela tecnologia e a criação de ferramentas de fiscalização, a norma engloba cinco pilares centrais: princípios; direitos dos afetados; classificação de riscos; obrigações e requisitos de governança; supervisão e responsabilização.
Apesar da necessidade, essa tarefa é complexa. A ausência de conhecimento técnico por parte dos reguladores na elaboração das normas resulta em regulamentações que não apenas apresentam lacunas em sua estrutura, mas também podem representar uma ameaça ao progresso de uma tecnologia tão inovadora, cujos limites ainda não foram completamente definidos.
Mesmo em processo, o desenvolvimento de uma legislação referente ao uso de Inteligência Artificial enfrenta o desafio central de equilibrar proteção pública e fomento à inovação. Regras excessivamente estritas podem inibir propostas inovadores e a agilidade. No entanto, a ausência de normas também é prejudicial, pois conduz ao desenvolvimento de tecnologias de IA que não consideram ética, privacidade e direitos dos indivíduos.
Por isso, é imperativo que órgãos reguladores, em conjunto com a indústria, tenham em mente a construção de arcabouço legal a partir dessas questões, aliando inovação responsável à proteção dos direitos dos cidadãos, assegurando que a tecnologia de IA evolua com benefícios para toda a sociedade.
Julio Cesar Fort é sócio e Diretor de Serviços Profissionais da Blaze Information Security, uma das principais empresas globais especializadas em segurança ofensiva com foco em pentest (teste de intrusão) e desenvolvimento seguro contra ataques cibernéticos. Especialista em cibersegurança com quase 20 anos de experiência, o executivo foi o responsável por agregar a equipe de segurança cibernética das Olimpíadas de Londres de 2012 e do banco de investimentos UBS.