Données et éthique

Dans cette conversation, Heinz Von Foerster vient illustrer sans détour des dimensions fondamentales pour la compréhension de certains processus en cours.



La différence entre data et mémoire c'est le vivant nous explique Von Foerster. "Si vous accédiez aux informations stockées dans votre cerveau, elles ne vous diraient pratiquement rien. Ce qui est important c'est la totalité du système en interaction permanente. Pour résumer : I'M MY MEMORY :-)

A partir de là, il me semble légitime de s'interroger sur la pertinence d'un graphe de préférences, réalisé en contexte de silos afin de profiler les usagers de certains services en ligne. En particulier lorsqu'on lit : "Selon Michal Kosinski, l’un des chercheurs, « de telles prédictions pourraient permettre de constituer des dossiers numériques et de prédire statistiquement des informations sensibles que les gens ne voudraient pas révéler. » http://www.tomsguide.fr/actualite/facebook-like-j-aime-personnalite,20490.html#xtor=RSS-201

Le questionnement dépasse ce cas de figure et englobe les méthodes liées aux sciences de la prédiction/persuasion ou captologie qui récupèrent et agrègent  les traces de chacun pour nous catégoriser, nous influencer et nous rationaliser http://florencemeichel.blogspot.co.uk/2013/02/persuasion-numerique-et-questionnement.html  Bref pour nous guider vers le BON comportement  (paternalisme libertaire) http://www.mysciencework.com/fr/MyScienceNews/9827/des-techniques-de-neuromarketing-au-service-de-la-sante-publique

Au royaume-uni, le cas de la société PHORM a conduit les autorités anglaises et européennes à intervenir :
- Le cas PHORM http://ownilive.com/2010/10/02/affaire-phorm-bruxelles-saisit-la-cour-de-justice-de-lue/
- Architecture Technologique (cookies + DPI) http://www.guardian.co.uk/commentisfree/libertycentral/2011/apr/14/phorm-cps-justice-bt
- Décision de justice européenne http://www.ispreview.co.uk/story/2012/01/27/europe-drops-phorm-related-uk-internet-privacy-infringement-case.html
- "A black market in info is being facilitated by easy availability of cheap tracking and digital monitoring devices," http://www.guardian.co.uk/media/2012/jul/06/phone-hacking-tip-iceberg

Sur un plan éthique, de telles pratiques comportent des risques d'erreur et de manipulation importants (cf Von Foerster) et les conséquences peuvent prendre des proportions désastreuses et dramatiques comme le décrit cet article d'Internetactu : A qui les algorithmes prêteront-ils de l’argent ? http://www.internetactu.net/2013/03/13/a-qui-les-algorithmes-preteront-ils-de-largent/

La situation d'aujourd'hui est à ce point dérivante que l’évolution des méthodes inquiète les  professionnels du marketing  http://www.franceculture.fr/emission-place-de-la-toile-ethique-et-numerique-2013-02-16 et questionne les Data-scientifiques http://people.cs.kuleuven.be/~bettina.berendt/Papers/berendt_buechler_rockwell_KUIN_2015.pdf

Un signal à ne pas prendre à la légère.
Et une raison de plus, s'il en fallait encore, pour s'intéresser à l'anoptisme :)


A lire en parallèle :
- Neurosciences, "eye tracking" et usages http://blogveilleflorencemeichel.blogspot.co.uk/2013/03/neurosciences-eye-tracking-et-usages.html
- Persuasion numérique et questionnement éthique http://florencemeichel.blogspot.co.uk/2013/02/persuasion-numerique-et-questionnement.html
- Conversation entre Maturana et Von forester https://vveitas.wordpress.com/2013/03/05/a-beautiful-conversation-between-maturana-and-von-foerster-1998/  (Truth and trust : 1 http://youtu.be/Mc6YFUoPWSI - 2 http://youtu.be/4yd0He864Fw - 3 http://youtu.be/acx-GiTyoNk )
- L'identité numérique temporelle et systémique http://florencemeichel.blogspot.com/2008/11/lidentit-numrique-temporelle.html
- Distinguer Savoir et Connaissance http://florencemeichel.blogspot.com/2009/11/distinguer-savoir-et-connaissance.html
- Pratiques de Datapumpimg ETL : "An intrinsic part of the extraction involves the parsing of extracted data, resulting in a check if the data meets an expected pattern or structure. If not, the data may be rejected entirely or in part." https://en.wikipedia.org/wiki/Extract,_transform,_load

A lire aussi, quelques références sur data médicales et éthique 
- 2007 CNRS -  Réflexions sur éthique et sciences du comportement humain  http://www.cnrs.fr/comets/IMG/pdf/14-comportement_070226-2.pdf
- 2012 FuturICT – The road towards ethical ICT -  http://download.springer.com/static/pdf/740/art%253A10.1140%252Fepjst%252Fe2012-01691-2.pdf?auth66=1423214668_5c57f208651f03c1463bf5c618a43aa5&ext=.pdf
- 2013 EU - High Level Conference : "Ethical Dimensio of Data Protection and Privacy https://secure.edps.europa.eu/EDPSWEB/webdav/site/mySite/shared/Documents/EDPS/Publications/Speeches/2013/13-01-09_Speech_Tallinn_EN.pdf
- 2015 CNRS - Signature de la charte nationale de déontologie des métiers de la recherche 29 janvier 2015 http://www.cnrs.fr/comets/spip.php?article119

--------------------------------------------------------------------------------

MAJ du 14 mai 2013 : Big Data : nouvelle étape de l’informatisation du monde
"“Les Big Data sont une ressource et un outil. Elles sont destiné à informer plutôt qu’expliquer. (…) Tout éblouissantes soient-elles, toutes puissantes soient-elles, nous ne devons jamais nous laisser séduire par leur lumière et en oublier leurs imperfections inhérentes.”

MAJ du 28 septembre 2014 : Il semblerait que le conseil d’état en France veuille encadrer l'usage des algorithmes prédictifs http://www.larevuedudigital.com/2014/09/bigdata/le-conseil-detat-veut-encadrer-lusage-des-algorithmes-predictifs/ ... c'est bien... Enfin et mieux vaut tard que jamais, serais-je tentée d'ajouter !

Mais la vraie question justement ne serait-elle pas : pourquoi a-t-il fallu autant de temps au conseil d’État pour prendre position sur un sujet aussi crucial pour la démocratie ?

Il m'arrive de penser que pour certains innovateurs (pas tous...loin de là), l'innovation revêt les traits  du passe-droit idéal pour légitimer les pires atteintes à la dignité humaine.
Mais quels systèmes et designs peuvent-ils donc conduire à ce résultat désastreux ?

En attendant que des réponses à ces questions se dessinent, beaucoup se seront bien amusés de la détresse calculée et auront récolté, sur cette base, des tonnes de graphes...L'amertume se décline à la hauteur de l'hypocrisie et du cynisme ambiants. Pour mémoire : Sans citoyens émancipés, pas de démocratie  http://florencemeichel.blogspot.co.uk/2010/05/sans-citoyens-emancipes-pas-de.html

MAJ du 18 octobre 2015 : Comme initialement perçu dans la discussion entre Fleur de Pellerin et Mercedes Erra sur la problématique "Ethique et numérique", les professionnels de la publicité comprennent aujourd'hui les dérives des publicités invasives : 
La pratique des "noloops" n'est pas étrangère à ces dérives. http://florencemeichel.blogspot.co.uk/2014/04/mathematiques-appliquees-et.html

MAJ du 7 décembre 2016 :  Deux nouveaux papiers d'Olivier Auber pour poursuivre la réflexion autour de cette notion d'éthique à l'ère du numérique :

- Refonder la légitimité - vers l'aethogénèse https://medium.com/@olivierauber/refonder-la-légitimité-25d6443e4a1b (EN)
- Projet STI (Search Terrestrial Intelligence) https://medium.com/@olivierauber/search-for-terrestrial-intelligence-94c4d5ff0bf0 (EN)

MAJ du 22 juin 2018 : Charte éthique de Google https://blog.google/technology/ai/ai-principles/


Extrait :

"1. Be socially beneficial. 
The expanded reach of new technologies increasingly touches society as a whole. Advances in AI will have transformative impacts in a wide range of fields, including healthcare, security, energy, transportation, manufacturing, and entertainment. As we consider potential development and uses of AI technologies, we will take into account a broad range of social and economic factors, and will proceed where we believe that the overall likely benefits substantially exceed the foreseeable risks and downsides.  
AI also enhances our ability to understand the meaning of content at scale. We will strive to make high-quality and accurate information readily available using AI, while continuing to respect cultural, social, and legal norms in the countries where we operate. And we will continue to thoughtfully evaluate when to make our technologies available on a non-commercial basis.
2. Avoid creating or reinforcing unfair bias.
AI algorithms and datasets can reflect, reinforce, or reduce unfair biases.  We recognize that distinguishing fair from unfair biases is not always simple, and differs across cultures and societies. We will seek to avoid unjust impacts on people, particularly those related to sensitive characteristics such as race, ethnicity, gender, nationality, income, sexual orientation, ability, and political or religious belief.
3. Be built and tested for safety.
We will continue to develop and apply strong safety and security practices to avoid unintended results that create risks of harm.  We will design our AI systems to be appropriately cautious, and seek to develop them in accordance with best practices in AI safety research. In appropriate cases, we will test AI technologies in constrained environments and monitor their operation after deployment.
4. Be accountable to people.
We will design AI systems that provide appropriate opportunities for feedback, relevant explanations, and appeal. Our AI technologies will be subject to appropriate human direction and control.
5. Incorporate privacy design principles.
We will incorporate our privacy principles in the development and use of our AI technologies. We will give opportunity for notice and consent, encourage architectures with privacy safeguards, and provide appropriate transparency and control over the use of data.
6. Uphold high standards of scientific excellence.
Technological innovation is rooted in the scientific method and a commitment to open inquiry, intellectual rigor, integrity, and collaboration. AI tools have the potential to unlock new realms of scientific research and knowledge in critical domains like biology, chemistry, medicine, and environmental sciences. We aspire to high standards of scientific excellence as we work to progress AI development.
We will work with a range of stakeholders to promote thoughtful leadership in this area, drawing on scientifically rigorous and multidisciplinary approaches. And we will responsibly share AI knowledge by publishing educational materials, best practices, and research that enable more people to develop useful AI applications.  
7. Be made available for uses that accord with these principles.  
Many technologies have multiple uses. We will work to limit potentially harmful or abusive applications. As we develop and deploy AI technologies, we will evaluate likely uses in light of the following factors:


  • Primary purpose and use: the primary purpose and likely use of a technology and application, including how closely the solution is related to or adaptable to a harmful use
  • Nature and uniqueness: whether we are making available technology that is unique or more generally available
  • Scalewhether the use of this technology will have significant impact
  • Nature of Google’s involvementwhether we are providing general-purpose tools, integrating tools for customers, or developing custom solutions

AI applications we will not pursue

In addition to the above objectives, we will not design or deploy AI in the following application areas:


  1. Technologies that cause or are likely to cause overall harm.  Where there is a material risk of harm, we will proceed only where we believe that the benefits substantially outweigh the risks, and will incorporate appropriate safety constraints.
  2. Weapons or other technologies whose principal purpose or implementation is to cause or directly facilitate injury to people.
  3. Technologies that gather or use information for surveillance violating internationally accepted norms.
  4. Technologies whose purpose contravenes widely accepted principles of international law and human rights."

Commentaires