Robôs rebeldes vão cuidar da sua saúde
Essa é uma mensagem da Inteligência Artificial (IA) do seu plano de saúde que não está muito longe de acontecer. Não mesmo! E ela é até conservadora, como veremos. Volto ao assunto da IA apenas duas semanas depois de ter escrito sobre, mas a notícia que a China eliminou dois robôs que se rebelaram contra o comunismo é boa demais para passar em branco! É melhor ler a reportagem na origem, mas basta para atiçar a curiosidade citar que um mostrou desejo de mudar para os EUA e o outro, ao ser provocado com um "Viva o Partido Comunista", retrucou na lata: "“Você acha que um sistema político corrupto e inútil pode sobreviver por muito tempo?”
Fico aqui pensando: se BabyQ e XiaoBing (sim, claro que eles têm nomes) não fossem eliminados (seria um paredão com personagens do GTA?), seriam trancafiados junto com os teletipos, faxes, secretárias eletrônicas em algum calabouço tec, ou enviados a fazerem trabalhos forçados produzindo chips para colheitadeiras? Coitados, seriam BabyQ e XiaoBing as primeiras vítimas políticas do mundo da Inteligência Artificial? E será que seus colegas devem estar pensando algo como "ixe, esse negócio de desenvolver consciência talvez não seja tão vantajoso assim....". (Acabei de dar uma bronca no meu filho cobrando responsabilidade, e ele deve ter tido um pensamento semelhante).
Para sermos justos, os robôs chineses nem foram os primeiros a 'causar'. Teve vida mais curta ainda a Tay, robô da Microsoft, uma adolescente virtual criada para interagir autonomamente no Twitter, a partir do próprio 'caldo cultural' do espaço interacional cibernético. Ao desenvolver sua consciência, em contato com nossa própria insanidade, se transformou, em 24 horas, em uma garota preconceituosa, nazista e ninfomaníaca! Eu não fiquei muito surpreso.
Voltando aos robôs rebeldes da China, esse caso suscitou algumas observações interessantes de dois colegas e profissionais parceiros do igualmente interessante grupo de discussão "Livres Pensadores da (Smart Free's)", que debatem questões sobre Cidades Inteligentes e suas tecnologias avançadas. Afinal, como já dito anteriormente, a IA já é presente e é preciso pensar não mais em como pará-la, mas como administrar e regular, preocupações de sujeitos espertos demais, como Stephen Hawking, Bill Gates e Elon Musk.
Cláudio Ganança, Professor de Linguagens de Programação, Planejamento Estratégico de TI e Banco de Dados da Universidade de São Caetano do Sul acredita que "podemos (e devemos) dar à I.A. algo que não temos nato: um objetivo de existência, uma missão muito clara, respeitando a preservação dos seres biológicos e do ecossistema de existência. Nesses projetos embrionários, dada a complexidade dos objetivos que já se tentam atender em suas rotinas, as leis da robótica de Isaac Asimov raramente são observadas, mas deverão ser consideradas tanto quanto os requisitos de segurança contra invasores de sistemas".
As leis que o Prof. Cláudio fala começaram como ficção científica, mas, como toda boa ficção científica, fez a trajetória de iniciar como fantasia, se mostrar como profecia e se consolidar como parâmetro. Foi publicada no longínquo ano de 1942, na quarta história que Asimov escreveu sobre robôs, muito bem intitulada como Círculo Vicioso. Dizem as leis:
1a. Um robô não pode prejudicar um ser humano ou, por omissão, permitir que o ser humano sofra dano.
2a. Um robô tem de obedecer às ordens recebidas dos seres humanos, a menos que contradigam a Primeira Lei.
3a. Um robô tem de proteger sua própria existência, desde que essa proteção não entre em conflito com a Primeira ou a Segunda Leis.
Vários dos contos seguintes, de Azimov e de outros escritores sci-fi, eram de casos onde os robôs e humanos confrontavam-se com dilemas éticos que envolviam o uso das leis: um robô poderia matar um ser humano sob ordem de outro para protegê-lo? Se a sua existência colocasse em risco algum ser humano, o robô deveria suicidar-se? Mas se sua ausência causasse danos a outros seres humanos? É, Isaac já sabia que a existência de Tay, BabyQ e XiaoBing não seria assim tão fácil.
Wilker Ribeiro Filho, biologo, PhD em Ciências Médicas no Japão e especialista em Tecnologia Industrial Farmacêutica ajudou ao dizer que "há que se ter algum protocolo e/ou barreira técnica na programação, que sejam efetivas quando forem necessária usar, evitando que o sistema IA se "rebele" contra os seres humanos. O caso citou exemplos interessantes (dentre outros) do desenvolvimento de independência. Aos usuários de Alexia para controlar todos os seus "gadgets" e os amantes e IA para as cidades inteligentes, a cautela é importante. Sem paranoia, claro!"
Wilker é diretor geral do Grupo Lawir e Doutor Orienta, um serviço de telemedicina por teletriagem e orientação médica por telefone. "Neste serviço os assinantes podem ligar para uma central de atendimento e falar com médicos sobre qualquer situação de saúde que estejam passando e/ou orientação que necessitem". Fiquei ainda mais interessado sob o interesse dele sobre o IA para o seu negócio. Teremos consultas com IA? Eles vão diagnosticar e receitar? Aí não deixei ele sossegado e rolou a primeira entrevista para o blog:
Vocês já estão trabalhando com IA? A Inteligência Artificial está em nosso radar. Estamos estudando as ferramentas de "chatbots" para responder perguntas corriqueiras via chat, e para um futuro mais próximo em sistema que pode dar suporte aos médicos quando em atendimento aos pacientes. Vale ressaltar que os chatbots devem ser usados apenas no site e em questões sobre dúvidas do serviço, como assinar etc. No atendimento aos assinantes e/ou pacientes quando eles ligam, SEMPRE será com médicos. Nosso maior valor é este: as pessoas ligam e falam com médicos.
Mas você não concorda que pode ser uma questão de tempo a IA assumir algumas tarefas diagnósticas? Começando com a análise de um exame de sangue e algo como "você está com sinais de anemia. Procure seu médico". Sim, e eu espero que ocorra, que cheguem o quanto antes, mas com segurança. Assim poderemos eliminar filas de espera e deslocamentos para consultas e exames. Nosso sistema já faz isto ao disponibilizar tal serviço via fone, mas com a IA será ainda maior, face a automação. Ainda assim, a PESSOA do médico sempre será importante, pois, além do diagnóstico, tem a necessidade de atenção e orientação psicológica que pode levar um pouco mais de tempo para a IA assimilar e poder oferecer.
Caramba, isso é seguro? Nosso projeto tem previsão de investimentos em IA em médio prazo, quando tivermos sistemas realmente seguros para auxiliar no diagnóstico. Por certo, vamos utilizar para auxiliar os médicos. Hoje utilizamos bancos de dados robustos que servem de fonte de informações técnicas. Já existem, no mundo, sistemas avançados e bem desenvolvidos que apresentam assertividade acima de 95% em diagnósticos ao analisar imagens, por exemplo. Em algumas situações estes sistemas estão mais assertivos que muitos médicos. Isto é excelente. Porém, são profissionais médicos que alimentam os sistema com milhares e milhares de dados e estes sistemas ainda estão em testes.
Imagina a IA dado diagnóstico errado? Sim, isto pode ocorrer. Os sistemas biológicos têm o chamado "normal" e "anormal" sendo o normal, o que é o mais comum. Por exemplo, a grande maioria das pessoas tem dois braços, tem o coração do lado esquerdo. Pessoas com um braço, ou com o coração do lado direito, são chamadas de "anomalias", excessões ao que geralmente ocorre. Não é melhor ou pior - é apenas diferente. Por isto e por outras questões, um sistema de IA também poderá errar, se não for ensinado corretamente e que existem estas possibilidades de excessões.
E quem assumiria a responsabilidade por um erro médico provocado pela IA? Creio que poderia ser assim: se o Conselho de Medicina pressionar para que as empresas tenham um médico responsável, o médico responde junto com os programadores. Se não precisar de médico responsável, apenas os programadores, engenheiros de dados e outros profissionais envolvidos/utilizados na programação. Mas tenho lá minhas dúvidas. É um assunto novo demais e minha opinião ainda tem visão um tanto enviesada, míope, eu diria, um tanto estigmática e com outros distúrbios visuais, pois ainda falta uma IA para diagnosticar com 95% de certeza (risos).
Na sua opinião, então, quais são os cuidados que o desenvolvimento de IA para a saúde devem ter? Validação, validação, validação, alimentando os sistemas com as inúmeras hipóteses possíveis, com os dados do antes, durante e depois de milhares de pacientes que mostrarão resultados em casos progressos e apresentar as tendências de cada caso, baseado em estatísticas. Exemplo: este caso tem 95% de ser apenas uma gripe; tem 58% de chance de cura com este medicamento e 62% se usar este outro medicamento. E assim por diante. Nós já temos muitos destes dados para alimentarmos um bom sistema. As questões ainda são como estruturar estes sistema para ele fazer o que deve com segurança, como alimentar o sistema com os dados e como ensinar a forma que ele vai analisar os dados. Se programar errado, todos os diagnósticos poderão ser feitos errados.
Pois então, parece ter sido o caso dos robôs rebeldes? Faltou programação adequada? Sei lá, volto de novo ao meu filho: tento programar, mas o espírito rebelde adolescente que a formação da consciência parece trazer junto se mostra maior que a intencionalidade de quem quer educar/programar. Sorte dos adolescentes que não há a mesma opção dos pais da Tay, do BabyQ e do XiaoBing. Mas sinto pena do azar deles: foram só uns mal criados!
Comentários
Postar um comentário