Due diligence de um projeto de IA:
Ajudamos nossos clientes a avaliar e a reduzir os riscos relacionados ao desenvolvimento e à utilização da inteligência artificial. Com confidencialidade, conduzimos análises de inteligência artificial pelas perspectivas ética, técnica e jurídica.
01
CLASSIFICAÇÃO DE GRAU DE RISCO DE SISTEMA DE INTELIGÊNCIA ARTIFICIAL
Para fins de documentação e accountability.
02
AVALIAÇÃO DE IMPACTO ALGORÍTMICO
Para fins de documentação e accountability.
03
AVISO DE TRANSPARÊNCIA
Informações claras e adequadas aos consumidores sobre o sistema de inteligência artificial utilizado e sobre as medidas de governança da organização.
04
POLÍTICA DE GOVERNANÇA DE IA
Adequação a padrões globais em matéria de IA, quanto a legislação, princípios éticos e melhores práticas.
05
AVALIAÇÃO
ITERATIVA
Avaliação periódica que tem como objetivo o aperfeiçoamento constante de sistemas de inteligência artificial.
06
ACONSELHAMENTO
ÉTICO
Apoio a projetos. Feedback e aconselhamento em desafios éticos específicos. Workshops e discussões. Atuação como stakeholder em projetos mais delicados.
Doutor em Filosofia do Direito pela PUC-SP. Mestre em Filosofia do Direito pela USP. Eticista de inteligência artificial. Advogado. CEO e Founder da Technoethics – Escola de Ética da Tecnologia. Professor convidado na Pós-Graduação em Direito Digital e em Proteção de Dados na Universidade Mackenzie. Professor de Ética e Privacidade na Digital House-SP. Pesquisador e autor de publicações sobre inteligência artificial, big data e proteção de dados. Membro da Comissão de Ética, Governança e Privacidade de Dados e Coordenador da Comissão de IA na Educação da International Association of Artificial Intelligence (I2AI). Membro da ForHumanity, comunidade internacional para confiabilidade da IA e sistemas autônomos. Coordenador de pesquisa do Grupo Ethics4AI da Universidade Mackenzie em conjunto com o Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP).
“Quando se pensa no potencial que uma nova tecnologia tem para ser aceita pelos usuários, um dos fatores importantes é o que se chama, em inglês, de creepines, isto é, o grau de desconforto ou estranhamento que uma determinada tecnologia causa nas pessoas. Quanto maior o nível de creepiness de uma tecnologia, menor tende a ser sua aceitação.”
Doutora em Filosofia e Teoria Geral do Direito e pós-doutoranda em Direito Civil pela FDUSP. É MBA em Finanças pela FGV. Advogada, psicóloga e psicanalista clínica, atua entre estas especialidades na promoção de condições de inovação em empresas, nas artes e nas ciências. Seu livro Criatividade Brasileira foi finalista do prêmio Jabuti de literatura e selecionado pelo Museu da Casa Brasileira. Sua pesquisa de doutorado sobre a relação entre aleatoriedade algorítmica e justiça trouxe convites a discussões em Stanford por três anos consecutivos.
“[…] que o Direito brasileiro não conceba as máquinas como ferramentas técnico-científicas para empreendimentos públicos e privados (e muito menos como potenciais projeções da inteligência e da intencionalidade humanas), mas sim como redes de relações humanas, semelhantes a grandes pactos plurilaterais em que a proposta, a conduta e até a boa-fé das partes são pessoalmente identificadas e observadas.”
Pesquisador nas áreas de teoria da computação, teoria da informação, lógica matemática, ciência de sistemas complexos e epistemologia. É atualmente bolsista FAPESP na pesquisa pós-doutoral realizada no Centro de Lógica, Epistemologia e História da Ciência (CLE), parte da Universidade Estadual de Campinas (UNICAMP), São Paulo, Brasil. Além de atuar como pesquisador associado na Algora Auditing, também é pesquisador associado: no DEXL, Laboratório Nacional de Computação Científica (LNCC), Petrópolis, Brasil; no Algorithmic Nature Group, LABORES for the Natural and Digital Sciences, Paris, França; e na fundação e iniciativa tecnológica AUTOMACOIN. Possui bacharelado em Matemática pela Universidade Federal do Rio de Janeiro (UFRJ). Possui mestrado e doutorado no programa interdisciplinar de pós-graduação em História das Ciências e das Técnicas e Epistemologia (HCTE), parte do Centro de Ciências Matemáticas e da Natureza (CCMN) da UFRJ, com bolsas da CAPES e CNPq, respectivamente.
“[…] haverá um estágio crítico no qual […] o comportamento em rede será imprevisível em termos precisos de uma quantidade crescente de bits que são incompressíveis por qualquer procedimento recursivo/computável baseado na estrutura escolhida, se o observador apenas a priori conhecer o comportamento dos nós quando isolado.”
Escreva-nos pelo site ou por email: atendimento@algora.digital
A Algora é uma collab entre o Gualtieri e Naccache Sociedade de Advogados, escritório boutique especializado em inteligência artificial, o programa Outsite de inovação e Felipe S. Abrahão.