A tecnologia de Inteligência Artificial (AI, na sigla em inglês) está constantemente gerando novas possibilidades – e novos riscos. A natureza abrangente e poderosa da AI é tanto um incentivo como uma preocupação para as empresas que estão desenvolvendo soluções a partir dessa tecnologia.

O presidente dos Estados Unidos, Joe Biden, conversou recentemente com assessores sobre como ajudar a garantir uma inovação de AI com responsabilidade que proteja os direitos e evite a desinformação. Na ocasião, o presidente disse: “A AI pode ajudar com alguns desafios muito difíceis, como doenças e mudanças climáticas, mas também temos que abordar os riscos potenciais para nossa sociedade, nossa economia, nossa segurança nacional… As empresas de tecnologia têm a responsabilidade, na minha opinião, de garantir que seus produtos sejam seguros antes de torná-los públicos”.

Essa responsabilidade é significativa – e também muito complexa. Os desenvolvedores de AI enfrentam um ambiente regulatório incerto, expandindo os recursos de AI e novas aplicações para diferentes setores. Esses fatores podem criar riscos que as empresas não mitigaram, ou mesmo anteciparam. Os riscos que acompanham a AI são tão significativos como os riscos que acompanham outras arquiteturas, como a de computação na nuvem. Para especialistas, quanto mais a AI for incorporada à arquitetura, maior será a oportunidade de retorno – mas maior será o risco, pois ela é usada de muitas maneiras ainda imprevisíveis.

IA: O Equilíbrio entre Inovação e Confiança

À medida que as empresas de software desenvolvem novos recursos de AI, elas precisam criar confiança, precisam demonstrar responsabilidade e gerenciamento de riscos que protejam os usuários e continuem impulsionando sua adoção. A Inteligência Artificial continua levando a novas possibilidades — e novos riscos. A preocupação IA é legítima e apropriada, mas as empresas devem aprender a identificar e gerenciar riscos para criar confiança. 

Construa confiança

A AI continuará a afetar os modelos de negócios das empresas que desenvolvem soluções, bem como das empresas que utilizam essas soluções. Esses modelos continuarão evoluindo à medida que novas capacidades forem adotadas. 

Com a computação em nuvem surgiram novos modelos de receita, de suporte, de engajamento de clientes, estruturas de risco corporativo, estruturas de força de trabalho e muito mais. O que permitiu tudo isso foi a confiança. É por meio da confiança que a adoção da AI será impulsionada.

Para construir essa confiança é necessário focar em coisas como: desempenho, escalabilidade, interoperabilidade e transparência. Um dos desafios, no entanto, é discernir responsabilidades. É preciso entender o que cabe a desenvolvedores de tecnologia e a usuários. Perguntas como as mencionadas abaixo terão que ser facilmente respondidas:

  • Como saber se há AI em determinada solução?
  • Como saber se AI está sendo utilizada?
  • Como saber que tipo de dado e informação estão sendo considerados?
  • Como saber sobre os níveis de proteção para utilização?

Fique à frente da regulamentação 

Seguir a regulamentação de IA pode ser difícil. Hoje, não há diretrizes universais e há muitas pessoas lidando com o tema. Isso criou uma rede complexa de direcionamentos e regulamentos sobrepostos de organizações e governos.

Nesse cenário, para estar à frente da regulamentação, é fundamental: 

  1. Implementar o gerenciamento proativo de riscos com base nos conceitos que orientam a conformidade – para se preparar sem sufocar a inovação
  2. Acompanhar os regulamentos em evolução para garantir que você esteja sempre dentro das regras
  3. Estabelecer uma auditoria regular de conformidade que identifique quaisquer mudanças relevantes em sua organização, soluções e regulamentações que exijam adaptação
  4. Uma demonstração proativa de responsabilidade e conformidade ajudará você a evitar ações regulatórias que possam limitar a inovação no futuro, para sua empresa e para o setor como um todo.

Clareza sobre as aplicações da tecnologia

As aplicações da AI, assim como as regulamentações relacionadas à tecnologia, estão em constante evolução – entre outros motivos porque as empresas de tecnologia geralmente não têm controle sobre como suas tecnologias são utilizadas.

Um modelo de aprendizado de máquina pode ser incorporado em soluções para governos, cuidados de saúde, serviços bancários ou outros setores, nos quais dados inadequados do cliente podem levar a vieses antiéticos e outros problemas.

Quem é responsável por essas questões? Reformulando a pergunta: Qual a responsabilidade dos desenvolvedores?

Embora os desenvolvedores não possam controlar todas as aplicações de suas tecnologias, eles podem se esforçar ao máximo para alertar os clientes sobre possíveis problemas. Portanto, certifique-se de informar aos clientes sobre os riscos que podem surgir pelo uso inadequado da tecnologia, em áreas como:

  • Precisão e imparcialidade dos dados

Soluções que utilizam a tecnologia de AI são apenas a ponta de um iceberg, apoiado por volumes massivos de dados. A precisão e imparcialidade dos dados determinam a precisão e imparcialidade dos resultados da solução. 

As soluções de AI precisam processar e analisar tantos dados que os desenvolvedores e implementadores precisam ser extremamente diligentes em garantir “higiene de dados” ao longo do tempo. Sem essa diligência, as soluções podem gerar resultados com vieses e outras informações incorretas, difíceis de serem detectadas antes que as pessoas utilizem esses resultados para tomar decisões. 

  • Privacidade, segurança e propriedade dos dados

Devido ao volume de dados que muitas soluções impulsionadas por AI processam, os desenvolvedores às vezes podem não aplicar suficientemente as restrições de privacidade, segurança, direitos autorais e outras medidas necessárias para uso dos dados 

A diligência dos dados deve levar em consideração esses fatores, assim como a precisão e a imparcialidade no design e implementação das soluções 

  • Circuitos fechados

A tecnologia de AI ainda não está, e talvez nunca esteja, em um ponto em que possa ser confiável para conduzir sistemas completamente fechados que tenham impactos significativos e permanentes. As soluções devem utilizar AI de forma responsável, limitando sua participação nos processos de tomada de decisão. 

  • Cadeias de suprimentos de software

A maioria das soluções atuais é construída a partir de componentes ou serviços desenvolvidos externamente, e muitas vezes fazem parte de sistemas maiores. Os desenvolvedores e implementadores soluções devem não apenas considerar o impacto da tecnologia de AI em suas próprias soluções, mas também os impactos dos componentes fornecidos e os impactos que as soluções têm nos sistemas maiores.

Desenvolvimento contínuo

Todas essas considerações evoluirão ao longo da vida de uma solução com AI. Portanto, os desenvolvedores e implementadores devem estabelecer mecanismos para reavaliar e se adaptar conforme necessário ao longo do tempo.

Transparência

Reguladores e clientes não podem considerar os riscos que não veem. É por isso que os desenvolvedores de AI devem oferecer o nível adequado de transparência – tendo o equilíbrio entre transparência e proteção do IP que torna seus produtos únicos e sustenta seu modelo de negócios.

Supere as expectativas

Analisando como os clientes passaram a confiar nas soluções de computação na nuvem, fica claro que os desenvolvedores de software precisam ser proativos para gerar a confiança “As empresas de tecnologia precisavam ir além do que você considera uma prática comercial normal para demonstrar a eficácia de seus produtos naquele ambiente”, afirma Perkins.

À medida que os riscos continuam a evoluir, os desenvolvedores e implementadores de software devem continuar gerenciando esses riscos para criar confiança e motivar a adoção da tecnologia. As empresas que constroem mais confiança podem estar em melhor posição para capitalizar a crescente demanda por AI.

Cta Solicite uma proposta