Novas ferramentas estão permitindo que as organizações convidem e aproveitem cientistas que não são cientistas de dados — por exemplo, especialistas em dados de domínio, membros de equipes muito familiarizados com os processos de negócios ou chefes de várias unidades de negócios — para impulsionar seus esforços de IA. Há vantagens em capacitar esses “cientistas cidadãos de dados” internos, mas também riscos. As organizações que estão pensando em implementar essas ferramentas devem seguir cinco etapas: 1) fornecer educação continuada, 2) fornecer visibilidade de casos de uso semelhantes em toda a organização, 3) criar um programa de mentores especializados, 4) ter todos os projetos verificados por especialistas em IA e 5) fornecer recursos para inspiração fora de sua organização.
Até recentemente, o entendimento predominante sobre inteligência artificial (IA) e seu subconjunto de aprendizado de máquina (ML) era que cientistas de dados especializados e engenheiros de IA eram as únicas pessoas que podiam impulsionar a estratégia e a implementação da IA. Essa foi uma visão razoável. Afinal, a ciência de dados em geral, e a IA em particular, é um campo técnico que exige, entre outras coisas, experiência que requer muitos anos de educação e treinamento para ser obtida.
No entanto, avance para os dias de hoje e a sabedoria convencional está mudando rapidamente. O advento do “Auto-ML” — software que fornece métodos e processos para criar código de aprendizado de máquina — gerou apelos para “democratizar” a ciência de dados e a IA. A ideia é que essas ferramentas permitam que as organizações convidem e aproveitem cientistas que não são cientistas de dados — por exemplo, especialistas em dados de domínio, membros de equipes muito familiarizados com os processos de negócios ou chefes de várias unidades de negócios — para impulsionar seus esforços de IA.
Em teoria, tornar a ciência de dados e a IA mais acessíveis para quem não é cientista de dados (incluindo tecnólogos que não são cientistas de dados) pode fazer muito sentido para os negócios. Unidades de ciência de dados centralizadas e em silos podem deixar de apreciar a grande variedade de dados que a organização tem e os problemas de negócios que ela pode resolver, especialmente com organizações multinacionais com centenas ou milhares de unidades de negócios distribuídas em vários continentes. Além disso, aqueles que estão no centro das unidades de negócios conhecem os dados que têm, os problemas que estão tentando resolver e podem, com treinamento, ver como esses dados podem ser aproveitados para resolver esses problemas. As oportunidades são significativas.
Em resumo, com uma excelente visão de negócios, aumentada com o Auto-ML, pode vir uma grande responsabilidade analítica. Ao mesmo tempo, não podemos esquecer que a ciência de dados e a IA são, na verdade, muito difíceis, e há uma longa jornada entre ter dados e resolver um problema. Neste artigo, descreveremos os prós e os contras da integração de cientistas de dados cidadãos em sua estratégia de IA e sugeriremos métodos para otimizar o sucesso e minimizar os riscos.
Os riscos de democratizar a IA em sua organização
Colocar sua estratégia de IA nas mãos de novatos acarreta pelo menos três riscos.
Primeiro, o Auto-ML não resolve as lacunas de conhecimento, treinamento e experiência, aumentando assim a probabilidade de falha. Quando usadas por cientistas de dados treinados, as ferramentas de aprendizado automático de máquina podem ajudar muito na eficiência, por exemplo, escrevendo código rapidamente que um cientista de dados possa validar. Mas há várias maneiras pelas quais uma IA pode evoluir tecnicamente ou funcionalmente, e quem não é cientista de dados com Auto-ML pode se deparar diretamente com essas armadilhas.
Por exemplo, um dos problemas para garantir um projeto de IA bem-sucedido é a capacidade de lidar adequadamente com conjuntos de dados de treinamento desequilibrados. Um conjunto de dados de transações que contém poucos casos de transações suspeitas — digamos 1% — deve ser amostrado com muito cuidado para que possa ser usado como dados de treinamento. O Auto-ML, no entanto, é uma ferramenta de eficiência. Ele não pode dizer como resolver esse problema, por exemplo, subamostrando, superamostrando ou adaptando a amostragem de dados de acordo com o conhecimento do domínio. Além disso, isso não é algo que seu diretor de marketing saiba como lidar. Em vez disso, está diretamente na especialidade de um cientista de dados experiente.
Outros riscos de falha nessa área também são grandes, especialmente aqueles relacionados à criação de um modelo que, em última análise, é inútil. Por exemplo, o modelo é construído com entradas que não estão disponíveis em tempo de execução, ou o modelo superajusta ou subajusta os dados, ou o modelo foi testado em relação ao benchmark errado. E assim por diante.
Em segundo lugar, a IA corteja de forma infame vários riscos éticos, de reputação, regulatórios e legais com os quais os especialistas em IA, muito menos os novatos em IA, não estão familiarizados. Além disso, mesmo que estejam cientes desses riscos, o novato em IA certamente não saberá como identificar esses riscos e elaborar estratégias e táticas apropriadas de mitigação de riscos. Em outras palavras, cientistas de dados cidadãos aumentarão esses riscos, e as marcas estão colocando sua reputação nas mãos de amadores, com implicações potencialmente graves para os clientes, clientes e parceiros da organização.
Além disso, as barreiras que as empresas criaram para mitigar esse risco foram criadas pensando nos cientistas de dados tradicionais. Embora muitas organizações estejam criando estruturas, processos e políticas de governança, riscos éticos ou “IA responsável” de IA, outras logo se unirão em resposta às novas regulamentações na União Europeia (A Lei de IA da UE) e Canadá (A Lei de IA e Dados) serão lançados nos próximos anos — eles precisarão estender essa governança para incluir a IA criada por cientistas que não são cientistas de dados. Dado que identificar esses riscos exige não apenas conhecimento técnico, mas também conhecimento ético, reputacional e regulatório, isso não é tarefa fácil.
Em terceiro lugar, em relação aos dois itens acima, fazer com que novatos em IA passem tempo desenvolvendo IA pode levar ao desperdício de esforços e recursos internos em projetos que é melhor deixar na sala de edição. E potencialmente pior do que isso, modelos defeituosos que são usados podem levar a impactos negativos imprevistos significativos.
Como preparar sua organização para a IA democratizada
Toda a IAdeve ser examinado para riscos técnicos, éticos, de reputação, regulatórios e legais antes da produção, sem exceção. Embora os modelos criados por cientistas de dados cidadãos apresentem mais riscos, isso não significa que a abordagem de aprendizado automático de máquina não funcione. Em vez disso, para as organizações que determinam que isso é uma parte eficaz de sua estratégia de IA, a chave é criar, manter e escalar a supervisão e a orientação adequadas. Aqui estão cinco coisas que essas organizações podem fazer para aumentar a probabilidade de sucesso.
Ofereça educação continuada.
As melhores práticas e diretrizes publicadas permitem que cientistas de dados cidadãos encontrem respostas para suas perguntas e continuem aprendendo. Por exemplo, existem melhores práticas relacionadas aos problemas mencionados acima: conjuntos de dados desbalanceados, modelos superajustados, etc. Essas melhores práticas devem estar prontamente disponíveis internamente e ser pesquisáveis por qualquer pessoa que esteja criando um modelo. Isso pode ser fornecido em várias formas, incluindo um wiki interno ou aplicativo similar.
Forneça visibilidade de casos de uso semelhantes dentro da organização.
Uma das ferramentas educacionais mais poderosas que você pode fornecer aos seus não cientistas de dados são exemplos ou estudos de caso que eles podem usar como modelos para seus próprios projetos. Na verdade, esses outros projetos podem ter recursos que a equipe pode usar, por exemplo, modelos de PNL prontos para uso, uma metodologia de modelo usada para resolver um problema e assim por diante. Isso tem o benefício adicional de acelerar o tempo de retorno do investimento e evitar a duplicação de trabalho e, portanto, o desperdício de recursos. Na verdade, mais e mais empresas estão investindo em ferramentas de inventário para pesquisar e reutilizar vários ativos de IA, incluindo modelos, recursos e novos métodos de aprendizado de máquina (por exemplo, um tipo específico de método de agrupamento).
Crie um programa de mentores especializados para iniciantes em IA.
Isso deve ser adaptado ao projeto para fornecer orientação específica para o problema. Isso também inclui a capacidade de fazer com que uma ideia de IA seja examinada por um especialista logo no início da fase de descoberta do projeto, a fim de evitar armadilhas comuns ou expectativas irreais sobre o que a IA pode oferecer. Talvez o mais importante aqui seja determinar se os dados que a organização ou a unidade de negócios tem são suficientes para treinar um modelo eficaz e relevante. Caso contrário, um mentor pode ajudar a determinar o quão difícil seria adquirir os dados necessários de outra unidade de negócios (que pode armazenar dados de uma forma que dificulte a extração e o uso) ou de terceiros.
Idealmente, os mentores estão envolvidos em todo o ciclo de vida do produto de IA, desde a fase conceitual até a manutenção do modelo. Nos estágios iniciais, os mentores podem ajudar as equipes a evitar armadilhas significativas e garantir que um roteiro robusto seja desenvolvido. Em estágios posteriores, eles podem desempenhar um papel mais tático, como quando a equipe precisa de orientação com um modelo implantado que não está funcionando tão bem quanto o esperado. Na verdade, essa função também pode ser muito útil para cientistas de dados experientes. Tanto cientistas de dados novatos quanto especialistas podem se beneficiar de ter uma caixa de ressonância especializada. É importante enfatizar aqui que, potencialmente, dois tipos de mentores são necessários: um para resolver riscos técnicos e comerciais e outro para garantir a conformidade com a ética da IA ou com um programa de IA responsável.
Verifique todos os projetos feitos por especialistas antes que a IA seja colocada em produção.
A orientação pode desempenhar um papel crucial, mas, no final das contas, todos os modelos e as soluções nas quais estão incorporados precisam ser avaliados e aprovados para implantação por especialistas. Idealmente, isso deve ser realizado por dois conselhos de revisão distintos. Um conselho deve ser composto por tecnólogos. Ooutra placa também deve incluir tecnólogos, mas devem consistir principalmente em pessoas de risco, conformidade, direito e ética.
Forneça recursos para educação e inspiração fora da sua organização.
Qualquer grupo em qualquer organização pode sofrer com o pensamento de grupo ou simplesmente com a falta de imaginação. Uma maneira poderosa de sair disso é incentivar e fornecer os recursos para que todos que criam modelos de IA participem de conferências e cúpulas de IA, onde a criatividade usando a IA em todos os setores e unidades de negócios está em plena exibição. Eles podem ver uma solução que desejam adquirir, mas, o mais importante, podem ver uma solução que os inspire a criar algo semelhante internamente.
. . .
A IA está em sua infância. As organizações estão continuamente tentando determinar como e se devem usar a IA, especialmente em um cenário de dúvidas sobre sua confiabilidade. Independentemente de você confiar sua estratégia de IA aos novatos em IA ou não, seguir essas etapas garantirá uma abordagem disciplinada da IA, maximizará os benefícios que a IA pode trazer e minimizará os riscos potenciais. Simplificando, seguir essas cinco etapas deve fazer parte da higiene básica da IA. Democratizar ou não democratizar a IA depende de você.