No cenário corporativo contemporâneo, observa-se uma proliferação de práticas enganosas que se manifestam sob o espectro de diversas “cores”, cada uma representando uma forma específica de dissimulação corporativa, ética e social. Este fenômeno, denominado washing, reflete uma tendência preocupante das organizações que buscam projetar uma imagem de responsabilidade e consciência sem implementar efetivamente mudanças substanciais em suas operações e valores corporativos fundamentais.
Talvez a mais famosa dessas tendências seja o greenwashing que se caracteriza pela adoção de uma retórica ambientalista sem o correspondente compromisso com práticas genuinamente sustentáveis. Empresas engajadas nesta prática frequentemente investem mais recursos em marketing ambiental, e na construção de uma imagem verde, do que em iniciativas concretas de redução de impacto ecológico, criando uma ilusão de responsabilidade, mas que na verdade se mostra apenas como estratégia de engajamento de mercado.
Da mesma forma, tais cenários atingem ainda as questões de gênero e de diversidade com o pinkwashing e o purplewashing, abordando a instrumentalização das causas sociais importantes para fins de imagem corporativa. O pinkwashing (ou rainbow-washing) se manifesta através da aparente defesa dos direitos LGBTQ+, muitas vezes limitada a períodos específicos como o mês do orgulho, sem um compromisso substantivo com políticas inclusivas ao longo do ano e de forma sistemática em seus programas corporativos. Já o purplewashing utiliza a bandeira da diversidade e inclusão de gênero de maneira superficial, sem promover mudanças estruturais nas políticas de contratação, promoção e cultura organizacional.
A paleta de cores das práticas washing se estende ainda ao bluewashing que representa uma forma de manipulação focada na ética digital e corporativa. Organizações que recorrem a esta estratégia frequentemente proclamam adesão a princípios éticos rigorosos no uso de tecnologias e dados, enquanto na prática podem estar envolvidas em práticas questionáveis de coleta e utilização de informações pessoais, ou até mesmo à inexistência de fato de uma política corporativa de proteção de dados e gestão de tecnologias, como no caso da inteligência artificial.
Tais práticas, em seu conjunto, não apenas prejudicam a relação com o público e os stakeholders, mas também corroem a credibilidade de iniciativas genuínas de responsabilidade corporativa.
Nesse contexto, e com a implementação de camadas de inteligência artificial nos mais diversos níveis gerenciais e nas mais diversas áreas de negócio, é de suma importância definir políticas corporativas que estejam devidamente adstritas aos ditames legais e aos valores da companhia. Ademais, tais políticas devem prever instrumentos e métodos eficazes de implementação, a fim de evitar que se tornem mais um pilar dos movimentos de bluewashing.
O Projeto de Lei 2338/2023 no Brasil representa um marco significativo na regulamentação da inteligência artificial, para além das disposições fundamentais (direitos e deveres dos envolvidos, por exemplo), o PL visa estabelecer diretrizes cruciais para a implementação de programas de governança eficazes. Assim como a regulação europeia, denominada AI Act, o PL emerge em um contexto de crescente preocupação global acerca dos impactos éticos e sociais da inteligência artificial, reconhecendo a necessidade premente de estruturas regulatórias que possam acompanhar o ritmo acelerado do desenvolvimento tecnológico.
Quanto aos programas de conformidade e ética corporativa, o PL exige que as organizações que desenvolvem ou implementam sistemas de inteligência artificial, denominados de agentes de inteligência artificial, estabeleçam programas de governança abrangentes para garantir a transparência, a explicabilidade, proteger os direitos fundamentais dos usuários, mitigar riscos associados ao uso de tais sistemas e promover uma cultura de responsabilidade e accountability.
A transparência e a explicabilidade, pilares fundamentais destes programas de governança, implicam na divulgação clara e compreensível dos detalhes do funcionamento dos sistemas de inteligência artificial, bem como dos critérios utilizados e a lógica adjacente aos seus processos decisórios. Esta abertura não apenas permite um escrutínio público mais efetivo, mas também reforça a confiança dos usuários nos sistemas implementados.
Outro aspecto crucial abordado pela legislação é a proteção dos direitos fundamentais, pois exige que as organizações implementem salvaguardas robustas contra potenciais violações de privacidade, discriminação algorítmica e outros impactos negativos que os sistemas de inteligência artificial possam ter sobre os direitos individuais e coletivos. Isto implica na realização de avaliações de impacto algorítmico regulares e na implementação de mecanismos de supervisão humana que possam intervir em casos de decisões potencialmente prejudiciais.
Neste ponto, um ponto particularmente relevante do PL é a ênfase na necessidade de medidas corretivas para evitar a perpetuação e ampliação de vieses sociais estruturais pela tecnologia. Reconhecendo que a diversidade na equipe de desenvolvimento pode contribuir significativamente para a redução de vieses algorítmicos, o projeto propõe de maneira inovadora a exigência de uma equipe inclusiva e diversa responsável pela concepção e desenvolvimento dos sistemas de inteligência artificial. Esta abordagem não apenas promove a equidade no processo de criação tecnológica, mas também serve como uma medida preventiva contra a incorporação inadvertida de preconceitos nos algoritmos.
O PL 2338/2023 enfatiza ainda a necessidade de treinamento contínuo das equipes envolvidas no desenvolvimento e operação de sistemas de inteligência artificial. Este requisito reconhece que a governança efetiva de inteligência artificial não é um estado estático, mas um processo dinâmico que requer atualização constante de conhecimentos e práticas. O projeto também prevê a criação de códigos de boas práticas e de governança pelos agentes de inteligência artificial, abrangendo aspectos como organização, funcionamento, segurança e mitigação de riscos. Esta abordagem demonstra um compromisso com a autorregulação responsável e a adaptabilidade às especificidades de diferentes aplicações de inteligência artificial.
A verdadeira governança ética em inteligência artificial não pode ser reduzida a um conjunto de procedimentos ou checklist de conformidade. Ela demanda uma transformação cultural profunda, onde os princípios éticos e o respeito aos direitos fundamentais se tornem intrínsecos ao ethos organizacional. Isto implica na necessidade de fomentar um ambiente onde questões éticas sejam constantemente debatidas e consideradas em todos os níveis decisórios, desde a concepção inicial de um sistema de inteligência artificial até sua implementação e monitoramento contínuo.
O desenvolvimento e a aplicação efetiva de programas de governança em inteligência artificial, conforme preconizado pelo PL, representa um desafio significativo para as organizações, exigindo uma abordagem que transcenda a mera conformidade legal e se ancore em um compromisso ético profundo e genuíno. Para evitar que estes esforços de governança se degenerem em mais uma manifestação de bluewashing, especificamente no contexto da inteligência artificial, é imperativo que as organizações adotem uma postura proativa e integral em relação à ética e responsabilidade no desenvolvimento e aplicação dessas tecnologias.
Neste contexto, o desafio posto pelo PL 2338/2023 não deve ser visto meramente como um obstáculo regulatório, mas como uma oportunidade para as organizações reafirmarem seu compromisso com a responsabilidade social e ética. Ao abraçar plenamente os princípios de governança ética em inteligência artificial, as empresas têm a chance de pintar um quadro autêntico de integridade e conformidade, distanciando-se das tonalidades enganosas washing. Assim, ao invés de mascarar suas práticas com cores superficiais de conformidade, esta nova paleta de governança da inteligência artificial composta por disposições genuínas de transparência, responsabilidade e respeito aos direitos fundamentais, não apenas alinha as organizações com as expectativas legais e sociais, mas também faz com que as empresas criem um espectro vibrante de inovação ética, pavimentando o caminho para um futuro tecnológico que reflita, em suas mais profundas nuances, os valores de uma sociedade verdadeiramente equitativa e benéfica para todos.
Autor: