Artigo

A ascensão da ética na era dos dados e da IA

Questões prioritárias e o que ainda falta fazer

A tecnologia recolhe atualmente um grande volume de dados pessoais, através das mais distintas aplicações e plataformas. O debate sobre as questões éticas associadas aos dados e à inteligência artificial já faz parte da agenda política da maior parte dos países, até porque a lei pode detrás deste tópico tem ainda muitas lacunas, ou em alguns casos é praticamente inexistente.

A legislação sobre a propriedade física é extremamente complexa, mas ao longo dos anos foi retificada e “limada” para eliminar áreas cinzentas que possam comprometer os princípios que regem os direitos e as responsabilidades associadas a uma propriedade.

E quando esta propriedade deixa de ser física, é complexa e circula livremente num mundo virtual que não se rege pelas mesmas regras?

Todos os dias a internet, a internet das coisas (IoT) e os sensores monitorizam e recolhem uma quantidade impressionante de dados sobre as pessoas – localização, gostos, comportamentos, amizades, saúde, sono, trabalho, entre outros exemplos. Para além disto, existem cada vez mais sistemas de inteligência artificial a tomarem decisões nos mais distintos cenários.

- Se um automóvel autónomo for confrontado com uma situação perigosa, deverá escolher o percurso menos arriscado para o passageiro ou para os peões?

A ética por detrás da IA e dos dados é cada vez mais relevante para as políticas públicas, mas é um assunto muito complexo que quase sem qualquer suporte legal.

Existem quatro questões a liderar este debate a nível mundial:

  • Privacidade – Apesar dos múltiplos pedidos de autorização que assinamos, existem inúmeras violações de privacidade. Os smartphones e serviços online recolhem dados permanentemente. O governo pode monitorizar a nossa atividade na internet. Agências e forças de autoridade estão a implementar tecnologia de reconhecimento facial. As lojas aproveitam esta tecnologia para traçarem o perfil do consumidor e estabelecer uma ligação direta ao cartão de crédito, por exemplo. Muitas destas coisas ocorrem sem conhecimento ou consentimento das pessoas.
  •  Falta de transparência - Os algoritmos baseados na IA são frequentemente mantidos em segredo, ou são tão complexos que torna-se difícil garantir total fiabilidade. São estes algoritmos que cada vez mais condicionam as nossas decisões através dos resultados que apresentam. Devemos confiar numa informação supostamente isenta criada por critérios "secretos"? Que papel deve o governo desempenhar para garantir a transparência?

  • Enviesamento e discriminação - O enviesamento do mundo real pode moldar o enviesamento algorítmico. Alguns sistemas judiciais já usam algoritmos para avaliarem o potencial de risco criminal dos arguidos, e esses dados são usados para condenação. Mas os algoritmos trabalham com dados que podem estar historicamente comprometidos, prejudicando um género, uma raça ou uma nacionalidade. Ou seja, resultados poderão ser tendenciosos.
  • Falta de governação e de responsabilização – Quem controla o sistema de IA e os dados? Quem é que cria as normas e os padrões éticos? Quem é responsabilizado quando essa ética é violada? Quem autoriza a recolha, armazenamento, e destruição de dados?

O governo é coletor, utilizador, mas também “regulador” da utilização corporativa dos dados recolhidos online. Cento e sete países já criaram legislação para proteger os dados e a privacidade dos cidadãos. Consórcios entre banca, universidades e grandes empresas de TI, como Apple, Amazon, Google, Facebook, IBM e Microsoft querem compreender melhor a IA e assegurar uma utilização mais responsável desta tecnologia. Outros países procuram controlar o uso não ético da IA.

Ainda assim, foram perdidos ou roubados 9,7 mil milhões de registos de dados a nível mundial, desde 2013. Mais de 95.000 queixas foram recebidas pelas autoridades de proteção de dados ao abrigo do GDPR, desde o seu lançamento.

O que falta fazer?

  • Reconhecer a urgência de padrões éticos na era da IA.
  • Desenvolver estruturas de governação que monitorizem a implementação ética da IA.
  • Criar uma estratégia de gestão de riscos algorítmica e uma estrutura de governação para gerir riscos técnicos e culturais.
  • Criar processos que testem e comprovem os dados e resultados que são usados e apresentados pelos algoritmos.
  • Encorajar a diversidade e a inclusão.
  • Promover a transparência em torno dos algoritmos da IA para criar confiança.
  • Educar developers, cientistas de dados e utilizador para importância da ética na IA.

Achou esta informação útil?