É preciso definir quem responde por atos cometidos por sistemas de Inteligência Artificia – Jornal do Comércio
Leia o artigo original em: https://www.jornaldocomercio.com/_conteudo/cadernos/empresas_e_negocios/2019/01/665222-nos-os-robos-e-a-etica-dessa-relacao.html
Um robô inteligente usado em uma fábrica de carros no Japão matou um trabalhador que tentou fazer reparos na máquina, pois não tinha consciência que existia um humano ali. No Arizona (EUA), todos acompanharam o caso da mulher que morreu ao ser atropelada por um carro autônomo do Uber no ano passado. Antes disso, a Tay, projetada pela Microsoft para bater papo com as pessoas no Twitter, viveu menos de 24 horas. A robô, que aprendia conforme ia se relacionando on-line com as pessoas, se transformou em sexista, pornográfica, nazista e racista na medida em que esses foram sendo os valores ensinados pelos internautas. A multinacional teve que tirar o projeto do ar, assim como já aconteceu com outros players, como Facebook e Google. Com um poder revolucionário comparado ao próprio surgimento da internet, a Inteligência Artificial (IA) será uma das tecnologias mais disruptivas das próximas décadas. Mas o que faremos quando o mundo em que vivemos for dominado por robôs, que tomarão decisões mais rápidas e precisas que nós? Se uma máquina causar danos a seus usuários, quem responderá civilmente? Como imputar responsabilidade caso uma solução da IA venha a se comportar de forma equivocada e insegura? Se um robô de um banco vazar dados confidenciais do correntista, de quem será a culpa: do desenvolvedor, do fabricante ou da instituição financeira? Pode parecer muito cedo para se pensar nisso, mas a verdade é que a responsabilização dos atos cometidos por sistemas baseados em IA já vem sendo debatida em muitos países. Na Europa, por exemplo, estuda-se criar uma personalidade jurídica para os robôs. Em 2017, o Parlamento europeu editou um resolução com recomendações sobre Direito Civil e robótica para que se crie uma espécie de personalidade jurídica para os robôs, chamada de e-personality. “O assunto é complexo e as diretrizes, ainda muito vagas, inclusive no Brasil”, afirma a advogada especialista em Direito Digital Paula Tudisco, do escritório Küster Machado Advogados. No Brasil, apenas pessoas físicas ou jurídicas são titulares de direitos e obrigações, e, portanto, as vítimas podem imputar a responsabilidade pela reparação dos danos causados pela Inteligência Artificial ao seu proprietário final ou ao seu fabricante, dependendo da situação e da tecnologia empregada. “A percepção de que a empresa que desenvolveu e implementou a tecnologia é que deve se responsabilizar juridicamente por eventuais danos causados pelo robô criado é praticamente automática no nosso ordenamento jurídico”, relata. A criação de um seguro amplo, que faça frente às hipóteses de danos causados por robôs com IA, é outra opção que vem sendo pensada globalmente. “Se o robô causar danos xingando pessoas ou até matando, alguém da cadeia de produtores da ferramenta seria acionado, e o plano faria a cobertura dos prejuízos”, analisa, destacando que isso já está avançando entre os países europeus. Todos esses debates sobre os limites da Inteligência Artificial e a responsabilização só estão presentes porque essa tecnologia, até então mais restrita ao meio acadêmico, chegou de fato às nossas vidas. Tecnicamente, isso foi possível comercialmente graças à chegada da computação em nuvem. O fato de poder contratar processamento (em vez de precisar comprar supercomputadores) democratizou o acesso à IA e fez surgir uma série de serviços que facilitam a criação de soluções inteligentes. Essa massificação está acelerando o surgimento de novas questões. “A ética é uma das grandes áreas de pesquisa em Inteligência Artificial, justamente porque hoje está cada vez mais presente na vida das pessoas, e, consequentemente, os seus impactos são mais visíveis”, avalia o pesquisador em Inteligência Artificial da Universidade Federal do Rio Grande do Sul (Ufrgs) e atual secretário de Inovação, Ciência e Tecnologia do Rio Grande do Sul, Luis Lamb.
Edson Prestes, pesquisador do Instituto de Informática da Ufrgs e membro do IEEE (sigla em inglês da organização internacional dedicada ao avanço da tecnologia em benefício da humanidade), defende que os algoritmos de IA sejam auditáveis, ou seja, que se consiga explicar e dizer o porquê dos resultados. “Tudo está associado à transparência. Quando você sabe o que o sistema produziu e o motivo, consegue atribuir responsabilidade”, destaca. Ele é o único brasileiro que faz parte de um painel permanente da Organização das Nações Unidas (ONU) para debater questões como segurança e direitos humanos na era digital. Os colíderes da iniciativa são Melinda Gates, da The Bill & Melinda Gates Foundation (EUA) e Jack Ma (China), Executive Chairman, Alibaba Group.
Robôs já auxiliam as empresas a se comunicarem com os consumidores pelas redes sociais, prever cenários e diagnosticar e tratar doenças. São aplicações que surpreendem, mas a verdade é que são apenas uma ínfima parte de todo o potencial que a Inteligência Artificial (IA) apresenta. Um levantamento feito pelo McKinsey Global Institute, combinado com pesquisas e entrevistas com especialistas, revelou quase 600 usos distintos para a Inteligência Artificial nos principais setores da economia. Ao que tudo indica, em alguns anos, veremos aplicações maduras do uso da IA para monitorar vídeos e identificar atividades suspeitas em locais públicos. Também será possível controlar o tráfego nas cidades alterando a sequência dos semáforos conforme o número de carros na rua, identificar comportamentos sugestivos de lavagem de dinheiro e analisar consumidores com maior potencial de compra de determinados produtos. Mas uma questão em especial ainda inquieta os pesquisadores desta tecnologia e pode travar a sua aplicação em algumas áreas. Como explicar os resultados obtidos? O que acontece por trás das black boxes (caixas pretas) dos sistemas automatizados da IA? Na área médica, por exemplo, os sistemas classificam imagens e reconhecem tumores com precisão superior aos médicos. Mas a comunidade científica e médica pode não aceitar a recomendação se não for possível saber explicar as respostas que os sistemas de aprendizado de máquina dão. “A arquitetura dos algoritmos é tão complexa que você não consegue explicar o que está acontecendo. Mas isso terá que ser superado, até porque as indústrias que estão usando essas aplicações querem ter a segurança de entender o porquê do resultado tecnológico está sendo produzido”, destaca o pesquisador em Inteligência Artificial da Universidade Federal do Rio Grande do Sul (Ufrgs) e atual secretário de Inovação, Ciência e Tecnologia do Rio Grande do Sul, Luis Lamb.
Desmascarar os algoritmos é uma forma também de evitar os vieses de desigualdade que muitas vezes são gerados e levam a decisões tendenciosas e interpretações erradas. “Mesmo que eu tenha o sistema de Inteligência Artificial (IA) perfeito, se os dados que o alimentam têm preconceitos, isso será propagado”, alerta o pesquisador do Instituto de Informática da Universidade Federal do Rio Grande do Sul (Ufrgs) e membro do IEEE (sigla em inglês da organização internacional dedicada ao avanço da tecnologia em benefício da humanidade), Edson Prestes. Ele comenta que, por meio dos dados, é possível determinar uma série de padrões e entender o comportamento das pessoas. “Isso pode ser muito preocupante, porque, se sabemos o comportamento, podemos manipular os indivíduos”, diz. Isso já acontece hoje em dia quando o usuário faz uma reserva em site de viagens e passa a receber mensagens de alerta dizendo que o produto subiu de preço e que é melhor correr para comprar. Mas essa prática pode ser muito mais cruel, como o que aconteceu nos Estados Unidos. Lá, as pessoas que recebem algum auxílio governamental possuem um cartão e podem sacar o dinheiro em caixas eletrônicos ou pequenos estabelecimentos comerciais. O governo consegue identificar qual foi o lugar em que cada pessoa realizou o saque. Um grupo contra subsídios teve acesso aos lugares dos saques e tentou convencer a população de que essas pessoas estavam usando o dinheiro em tabacarias para comprar cigarro ou bebida. Mesmo que apenas o saque, e não o gasto, tenha sido feito nesses locais. Outro exemplo é o de uma pessoa que vai ao médico, faz exames e descobre que está com o colesterol alto. Algum tempo depois, esse indivíduo vai ao supermercado, compra chocolate e sorvete e, ao final, dá o seu CPF. Se alguém acessar e integrar os dados da saúde com o das compras dessa pessoa, poderá usar essa hábito para dizer que ele não está cuidando da sua saúde e que, portanto, deve pagar mais pelo seu plano. “A integração de dados é algo perigoso. Se não tivermos cuidado com isso, e o dado for usado sem qualquer tipo de tratamento, pode criar problemas sérios”, analisa Prestes. A ética no campo da automação é um assunto delicado e que ainda precisa ser melhor debatido e compreendido, analisa Luciano Costa, que está à frente da MeekaLabs, empresa especialista em computação cognitiva. Ele foi um dos criadores da Meeka, a primeira assistente virtual de casamentos do mundo, e que foi primeiro caso de sucesso para o Watson no Brasil. “Eticamente falando, não sabemos, ainda, que caminho essa revolução vai seguir. A IA tanto pode agilizar nossa vida ao lidar com tantos dados como também pode fazer com que nos sintamos cada vez menos no controle de nossas próprias decisões e escolhas”, comenta.
Apostar na profissionalização das pessoas que vão capacitar os robôs é um dos caminhos para se tentar evitar casos mais sérios no comportamento desses sistemas. Isso significa atenção tanto na qualidade do treinamento para que o robô não tenha viés, e assim não seja tendencioso em suas decisões, até cuidados com questões de gênero ao tratar com pessoas. Quem desenvolve robôs de atendimento, por exemplo, precisa estar atento à questões de gênero ao tratar com as pessoas, além de entender seus perfis de consumo e criar uma comunicação objetiva e eficaz. “Esse cuidado é muito importante para que essa transição seja segura e que possa trazer mais ganhos do que prejuízos. A inteligência pode ser artificial, mas a comunicação precisará ser o mais humana e objetiva possível no tratamento com pessoas, facilitando suas escolhas, mas nunca impondo ou restringindo-as”, defende Luciano Costa, que está à frente da MeekaLabs, empresa especialista em computação cognitiva. O pesquisador do Instituto de Informática da Universidade Federal do Rio Grande do Sul (Ufrgs) e membro do IEEE (sigla em inglês da organização internacional dedicada ao avanço da tecnologia em benefício da humanidade), Edson Prestes, defende o desenvolvimento do pensamento ético e holístico nos desenvolvedores, com a consciência das implicações da tecnologia na sociedade. “Temos que formar pessoas que consigam ir além da parte técnica, que consigam ter empatia, se colocar no lugar de quem vai usar os sistemas e antever possíveis problemas”, analisa.
Não é de hoje que ferramentas que usam Inteligência Artificial (IA) são acusadas de apresentar decisões tendenciosas – o chamado viés. O que dizer dos preditores de reincidência criminal no sistema prisional norte-americano, que têm sido criticados por sugerir viés étnico (predizendo reincidência criminal de pessoas negras com maior probabilidade do que caucasianos) ou até mesmo o sistema de classificação de imagens do Google Photos, que classificava pessoas negras como gorilas. Recentemente, uma imagem que sugeria viés de gênero na ferramenta de tradução automática Google Translate viralizou nas mídias sociais. A imagem mostrava um conjunto de profissões traduzido da língua húngara para o inglês – ocupações como enfermeiro(a) e padeiro(a) eram traduzidas com pronome feminino e ocupações como engenheiro(a) e CEO, com pronome masculino. Para tentar estudar a distorção a partir de uma abordagem sistemática e quantitativa, um grupo de pesquisadores gaúchos levantou um conjunto abrangente de profissões do U.S. Bureau of Labor Statistics e o usou para construir sentenças em construções do tipo “Ele(a) é um(a) engenheiro(a)/enfermeiro(a)/médico(a)” em 12 linguagens diferentes que admitem gênero neutro, ou seja, que admitem pronomes que não indicam gênero masculino ou feminino especificamente. “Ao coletar estatísticas a respeito da frequência de tradução com pronomes femininos, masculinos ou neutros no conjunto de profissões examinado, observamos que o Google Translate apresenta viés para traduções masculinas. Os pronomes masculinos aparecem em 59% das traduções, contra 16% de femininos, 12% de neutros e 13% de erros de tradução”, relata o pesquisador Marcelo de Oliveira Rosa Prates. Em categorias de profissões mais estereotipadas – como as de ciência, tecnologia, engenharia e matemática -, esse fenômeno é mais pronunciado – assim como nas áreas legal e de entretenimento, que são as que mais produzem traduções de gênero masculino. As que menos produzem são saúde, produção e educação. Os pesquisadores concluíram que o Google Translate tem um problema de viés de gênero que, provavelmente, é um fenômeno que está implícito nos dados de treinamento. Como a ferramenta é treinada com exemplos reais de tradução, possivelmente, acaba aprendendo relações de gênero que estão impressas no modo de falar e escrever a respeito de mulheres no mercado de trabalho. “O Google Translate é usado diariamente por pessoas do mundo todo, e é muito importante que seja feita uma correção”, destaca o pesquisador Pedro Henrique Costa Avelar. E, de fato, isso aconteceu. No início de dezembro, o gerente de produtos do Google Translate, James Kuczmarski, relatou que a empresa trabalhou para reduzir o preconceito no aprendizado de máquina na sua ferramenta. E uma das evoluções foi, justamente, para abordar o viés de gênero ao fornecer traduções femininas e masculinas para algumas palavras neutras no seu tradutor. Em nota publicada no site da empresa, ele explica que o Google Translate, historicamente, fornecia apenas uma tradução para uma consulta, mesmo que a tradução pudesse ter uma forma feminina ou masculina. Então, quando o modelo produziu uma tradução, o sistema “replicou inadvertidamente” preconceitos de gênero que já existiam. Ou seja, masculino para palavras como forte ou médico, e feminino para outras palavras, como enfermeira ou bonita. Uma das mudanças é que, agora, será fornecida uma tradução feminina e outra masculina para uma única palavra. Ao colocar doctor (inglês) e pedir para traduzir para o português, por exemplo, o usuário verá duas opções: médica e médico. Ao digitar bir doktor (turco), verá “ela é uma médica” e “ele é um médico” como as traduções específicas de gênero. Avelar e Prates são orientandos do pesquisador em Inteligência Artificial da Universidade Federal do Rio Grande do Sul (Ufrgs) e atual secretário de Inovação, Ciência e Tecnologia do Rio Grande do Sul, Luis Lamb, que comenta que o sistema de tradução do Google avançou nos últimos anos. “Na medida em que eles passaram a usar tecnologias baseadas em aprendizado de máquina e deep learning (aprendizado estruturado profundo, uma das bases a IA) tiveram uma melhora assombrosa na qualidade da tradução. Mas muitos dos sistemas que interagem com a gente dependem da qualidade e do viés dos dados que ele tem. À medida que alimento um sistema com dados com determinado viés, ou ensino ele a dar respostas mal educadas ou politicamente incorretas, ele irá reproduzir isso”, relata.
Diante da necessidade de entender o treinamento e os resultados de dados gerados pelos robôs, temas até então pouco considerados passarão a vir à tona para que seja possível garantir a linhagem das informações. Cada vez mais, será preciso saber quem manipulou e treinou esses dados? Que informações foram usadas para construir determinado modelo? Quais os cuidados que estão sendo tomados com a privacidade das informações? “Estamos entrando na fase de começar a escalar a Inteligência Artificial (IA), então é natural que surjam essas preocupações com a transparência, de como poder explicar como se chegou a uma determinada recomendação, se ela contém viés e se é justa”, destaca o executivo de Watson AI & Data IBM Brasil, Alexandre Dietrich. A empresa, player importante desse mercado, deu um passo importante recentemente para abrir a chamada caixa-preta da IA. A IBM apresentou, em setembro de 2018, uma nova tecnologia que dará às empresas mais transparência nos modelos de Inteligência Artificial desenvolvidos com base nas ferramentas da multinacional. O novo serviço de software, disponível na nuvem, vai dar visibilidade sobre os parâmetros que a IA usa para chegar às recomendações, além de detectar automaticamente vieses no momento em que os sistemas estão em execução. O software poderá ser programado para monitorar os fatores de decisão de qualquer ambiente de negócios, com a opção de ser personalizado para o uso específico das organizações. Além disso, ele é automatizado e explica a tomada de decisões ao longo da execução. É importante ressaltar que também recomenda automaticamente que dados sejam adicionados ao modelo para ajudar a atenuar qualquer tendência de viés detectada. “Vamos ajudar os clientes a monitorar o ciclo de vida de um modelo de IA, avaliando a acuracidade dos dados e alertando se está sendo justo nas respostas”, conta. Um caso prático disso é se uma empresa estiver desenvolvendo um sistema inteligente para a aprovação de crédito. Pode acontecer, por exemplo, de pessoas com menos de 25 anos estarem sempre sendo constantemente negadas. Se a ferramenta identificar isso, poderá questionar quem está lidando com os dados, se não estão sendo usadas informações insuficientes para gerar um resultado fidedigno sobre quem teria condições ou não de receber o crédito bancário. Muitas vezes, a base é pequena ou segmentada, deixando de fora aqueles que realmente teriam renda para obter o crédito, apesar da pouca idade. Da mesma forma, a ferramenta permitirá, ainda, entender o peso de cada um dos atributos para negar ou aprovar a concessão do crédito, como localização geográfica e idade. O mesmo acontece no uso da IA para recomendações médicas. “O sistema consegue explicar o resultado. E o uso da automatização para aumentar inteligência humana, para ajudar os profissionais a tomarem a melhor decisão”, destaca Dietrich. – Jornal do Comércio (https://www.jornaldocomercio.com/_conteudo/cadernos/empresas_e_negocios/2019/01/665222-nos-os-robos-e-a-etica-dessa-relacao.html)