Artigo

Inteligência Artificial: desmistificar riscos, apostar na inovação

Quais os riscos inerentes ao desenvolvimento, implementação e manutenção de sistemas de AI?

Para conseguir gerir os riscos estratégicos, financeiros e corporativos, é importante compreender primeiro os riscos inerentes ao design, desenvolvimento, implementação e manutenção de sistemas de Inteligência Artificial.

A inteligência artificial (IA) é vista como um dos maiores motores de inovação em quase todas as indústrias. No entanto, os desafios, o desconhecimento e a ideia de complexidade e risco que ainda acompanham esta tecnologia estão a desacelerar o ritmo de adoção por parte das organizações.

Desmistificar os riscos inerentes à IA é um passo essencial, mas insuficiente. Para as empresas conseguirem extrair e usufruir totalmente do real valor da inteligência artificial têm de garantir o equilíbrio perfeito entre a permanente e eficiente utilização da IA e o modelo de governação mais indicado para a IA adotada – design, gestão e operacionalização. Só assim vão conseguir assegurar a eficácia crucial para o sucesso, sem nunca comprometer um dos drivers mais importantes para a adoção de uma tecnologia: a confiança.

Tudo isto necessita de um esforço coletivo de toda a organização. Não é um processo isolado.

Existem cinco estratégias críticas:

Identificação dos riscos

Os potenciais riscos de um sistema de IA devem ser identificados logo no início do projeto para que a organização e as equipas de desenvolvimento possam criar, desenvolver e implementar um sistema totalmente ajustado às necessidades, fiável e de confiança. Este planeamento cuidado vai também mitigar os riscos, reduzir possíveis erros e consequentes trabalhos de reabilitação, otimizar o tempo de conclusão do projeto e evitar custos desnecessários.

Governação ajustada ao sistema de IA

A identificação e análise dos riscos de um sistema de IA não é um processo da responsabilidade dos decisores da empresa. Envolve um esforço coletivo de toda a organização e necessita da intervenção de um grupo de intervenientes, com competências distintas, capaz de fornecer orientações e estratégias de mitigação, com base nos seus conhecimentos funcionais. A organização deve identificar quais os stakeholders mais importantes para esta análise, de acordo com os atributos do sistema de IA. Isto exige a compreensão dos parâmetros e atributos-chave do sistema selecionado.

Implementação de autoavaliações

A Deloitte desenvolveu uma ferramenta de autoavaliação que recolhe os parâmetros-chave do sistema de IA para avaliar quais os riscos que requerem mais atenção e uma análise mais incisiva. O objetivo é ajudar a identificar as vulnerabilidades e a escalar corretamente o modelo de governação.

A ferramenta:
- Fornece orientação acionável aos proprietários e developers do sistema de IA para suporte de decisões de conceção e desenvolvimento;
- Orienta os proprietários do sistema de IA para os grupos/funções mais relevantes para a gestão dos riscos;
- Suporta o inventário do sistema de IA e relatórios agregados, elementos chave para a correta compreensão e adoção de um sistema de IA e de outros indicadores como o ROI, o perfil de risco agregado, entre outros exemplos.

Adoção de cadernos técnicos

Os manuais técnicos oferecem às equipas de trabalho uma orientação tática e específica para cada situação – aplicação de técnicas, referências a ferramentas e recursos de fonte aberta ou de aquisição, sistemas de IA mais comuns, entre outros exemplos. Necessitam ser revistos e atualizados periodicamente.

Seleção de ferramentas de IA de confiança

Independemente de serem soluções open source ou proprietárias, as ferramentas de software conseguem otimizar e enriquecer os sistemas de IA. Quais as melhores ferramentas? Open source ou proprietárias? A escolha deverá ter sempre por base uma relação custo-benefício e contemplar diferentes variáveis como os custos reais, nível de personalização e competências necessárias para alavancar eficazmente estas ferramentas.
 

Achou esta informação útil?