PT / EN / FR

Intelligence artificielle éthique et fiable

Due diligence d’un projet d’IA :

NOUS SOMMES DES AUDITEURS INDÉPENDANTS

Nous aidons nos clients à évaluer et à réduire les risques liés au développement et à l’utilisation de l’intelligence artificielle. Avec confidentialité, nous analysons l’intelligence artificielle des points de vue éthique, technique et juridique

01

CLASSIFICATION DU DEGRÉ DE RISQUE DU SYSTÈME D’INTELLIGENCE ARTIFICIELLE

À des fins de documentation et de responsabilité.

02

ÉVALUATION DE L’IMPACT ALGORITHMIQUE

À des fins de documentation et
de responsabilité.

03

AVERTISSEMENT DE TRANSPARENCE

Des informations claires et appropriées, destinées aux consommateurs, sur le système d’intelligence artificielle utilisé et sur les mesures de gouvernance de l’organisation.

04

POLITIQUE DE GOUVERNANCE DE L’IA

Évaluation et adaptation des projets et des processus aux standards mondiaux en matière d’intelligence artificielle, en ce qui concerne la législation, les principes éthiques et les meilleures pratiques.

05

ÉVALUATION ITÉRATIVE

Évaluation périodique visant à l’amélioration constante des systèmes d’intelligence artificielle.

06

CONSEIL ÉTHIQUE

Soutien aux projets. Retour d’information sur des défis éthiques spécifiques. Ateliers et discussions. Point de vue des parties prenantes sur les projets sensibles.

André Gualtieri

Docteur en philosophie du droit de la PUC-SP. Maître en philosophie du droit de l’USP. Éthicien de l’intelligence artificielle. Avocat. PDG et fondateur de Technoethics – École d’éthique de la technologie. Professeur invité au Post-Graduation en droit numérique et protection des données à l’Universidade Mackenzie. Professeur d’éthique et de protection de la vie privée à la Digital House-SP. Chercheur et auteur de publications sur l’intelligence artificielle, le big data et la protection des données. Membre de la commission Éthique, gouvernance et confidentialité des données et coordinateur de la commission IA dans l’éducation de l’Association internationale de l’intelligence artificielle (I2AI). Membre de ForHumanity, communauté internationale pour la fiabilité de l’IA et des systèmes autonomes. Coordinateur de recherche du groupe Ethics4AI à l’université Mackenzie en collaboration avec l’Institut brésilien pour l’enseignement, le développement et la recherche (IDP).

« Lorsqu’on réfléchit au potentiel d’acceptation d’une nouvelle technologie par les utilisateurs, l’un des facteurs importants est ce que l’on appelle le caractère effrayant, c’est-à-dire le degré de malaise ou d’étrangeté qu’une technologie donnée provoque chez les gens. Plus une technologie est effrayante, moins elle est acceptée. »

Andréa Naccache

Docteur en philosophie et théorie générale du droit et post-doctorante en droit civil à la Faculté de droit de l’USP. Titulaire d’un MBA en Finance de la FGV. Avocate, psychologue et psychanalyste clinicienne, parmi ces spécialités, elle travaille à promouvoir les conditions de l’innovation dans les entreprises, dans les arts et les sciences. Son livre Criatividade Brasileira (Créativité brésilienne) a été finaliste du prix Jabuti et sélectionné par le Museu da Casa Brasileira. Sa recherche doctorale sur la relation entre l’aléatoire algorithmique et la justice lui a valu d’être invitée à participer à des discussions à Stanford pendant cinque années consécutives.

« […] que le droit ne conçoit pas les machines comme des outils techniques-scientifiques pour les entreprises publiques et privées (et encore moins comme des projections potentielles de l’intelligence et de l’intentionnalité humaines), mais plutôt comme des réseaux de relations humaines, semblables à de grands pactes plurilatéraux dans lesquels la proposition, le comportement et même la bonne foi des parties sont personnellement identifiés et observés.”

 

Felipe S. Abrahão

Chercheur dans les domaines de la théorie du calcul, de la théorie de l’information, de la logique mathématique, de la science des systèmes complexes et de l’épistémologie. Il est actuellement chercheur post-doctoral dans le cadre du programme FAPESP au Centre de logique, d’épistémologie et d’histoire des sciences (CLE), qui fait partie de l’université d’État de Campinas (UNICAMP), à São Paulo, au Brésil. Outre son travail d’associé de recherche à Algora Auditing, il est également associé de recherche : à DEXL, Laboratório Nacional de Computação Científica (LNCC), Petrópolis, Brésil ; au Algorithmic Nature Group, LABORES for the Natural and Digital Sciences, Paris, France ; et à la fondation et à l’initiative technologique AUTOMACOIN. Il est titulaire d’une licence en mathématiques de l’université fédérale de Rio de Janeiro (UFRJ). Elle a obtenu une maîtrise et un doctorat dans le cadre du programme interdisciplinaire de troisième cycle en histoire des sciences, des techniques et de l’épistémologie (HCTE), qui fait partie du Centre des sciences mathématiques et de la nature (CCMN) de l’UFRJ, grâce à des bourses de la CAPES et du CNPq, respectivement.

« […] il y aura un stade critique où […] le comportement du réseau sera imprévisible en termes précis d’une quantité croissante de bits incompressibles par toute procédure récursive/calculable fondée sur la structure choisie, si l’observateur ne connaît qu’a priori le comportement des nœuds lorsqu’ils sont isolés. »

Parlez-nous

Écrivez-nous sur le site ou par email: atendimento@algora.digital

Formulaire




    Algora est le fruit d’une collaboration entre Gualtieri & Naccache, un cabinet d’avocats spécialisé dans l’intelligence artificielle, le programme d’innovation Outsite et Felipe S. Abrahão.

    Rua Caçapava, 49 • Cjto 56
    Jardim Paulista • 01408-010