Mathématiques appliquées et questionnement philosophique
Dans cet article, "Aveu d'un pionnier d'Internet : "nous nous sommes trompés de bonne foi" http://meta-media.fr/2014/03/24/aveu-dun-pionnier-dinternet-nous-nous-sommes-trompes-de-bonne-foi.html , Jaron Lanier nous apprend que "Au début l'informatique donne l'impression de tout pouvoir réaliser, de fournir d'infinies richesses, alors qu'en fin de compte, le phénomène se renverse et échoue (...) Quand vous avez les plus gros ordinateurs du monde qui vous aident en collectant des données pour vous donner un avantage, c'est si puissant que vous vous précipitez. Mais finalement, ce n'est qu'une illusion". (...) "Lanier met en garde contre le principe de réalité contre lequel se heurte toujours la statistique."
En parallèle, dans cet autre article, "Big data: are we making a big mistake?" http://www.ft.com/cms/s/2/21a6e7d8-b479-11e3-a09a-00144feabdc0.html il est expliqué que : "found data contain systematic biases and it takes careful thought to spot and correct for those biases. Big data sets can seem comprehensive but the "N = All" is often a seductive illusion. (...) big data do not solve the problem that has obsessed statisticians and scientists for centuries: the problem of insight, of inferring what is going on, and figuring out how we might intervene to change a system for the better. (...) "Big data" has arrived, but big insights have not. The challenge now is to solve new problems and gain new answers - without making the same old statistical mistakes on a grander scale than ever."
Alors je me questionne :
Le "détournement" des inférences bayésiennes (liées aux approches quantiques ==> cf Qbisme, obviously :) http://www.pourlascience.fr/ewb_pages/a/article-l-etrangete-quantique-juste-une-impression-32441.php - https://en.wikipedia.org/wiki/Quantum_Bayesianism ) vers des calculs de statistiques essentiellement fréquentistes ne pose-t-il pas problème ?
Dans ce contexte particulier, les #noloops ne constituent-elles pas des processus opérationnels découlant d'approches purement fréquentistes ? Elles font partie intégrante des algorithmes qui "fabriquent intentionnellement" du bizarre et elles participent à la manipulation des graphes associés. L'"embrouillamini" qui en émerge devient le dysfonctionnement à partir duquel découlent des formes d'emballement et de "Grand n'importe quoi". A noter que celles-ci peuvent néanmoins, dans des contextes d'individuation particuliers, déboucher sur le développement du sens critique et la prise de conscience de ce qui est à l'oeuvre. http://florencemeichel.blogspot.co.uk/2010/05/piaget-et-les-reseaux-apprenants.html
Au final, j'ai le sentiment que ce "Grand N'importe Quoi" participe surtout à une forme d' "altération" des codes"et à la falsification des processus, symboles qui en résultent.
"Alors que la statistique classique présupposait des hypothèses qu’il s’agissait de vérifier, nous produisons désormais des connaissances sans hypothèses.” Les données, les Big Datas, semblent appeler à devoir parler d’elles-mêmes. Or, l’effacement du moment de l’hypothèse, risque d’effacer également une subjectivité qui souhaitait être confrontée à une réalité. Il y a un possible éloignement d’un certain éthos scientifique et politique, qui consistait précisément dans le fait de produire une série de différences par rapport aux corrélations extraites des seules données...La perte du questionnement induit par la corrélation risque de nous faire perdre les épreuves qui permettaient de produire du sujet" http://www.internetactu.net/2012/01/05/reseaux-sociaux-33-ces-algorithmes-qui-nous-gouvernent/
A lire en complément
- Rationalisation du vivant http://florencemeichel.blogspot.co.uk/2009/01/rationalisation-du-vivant.html
- Philosophie et transhumanisme http://florencemeichel.blogspot.com/2011/09/philosophie-et-transhumanisme.html
- Page wikipedia : inférence bayésienne et incertitude https://fr.wikipedia.org/wiki/Inf%C3%A9rence_bay%C3%A9sienne
"Le raisonnement bayésien s'intéresse aux cas où une proposition pourrait être vraie ou fausse, non pas en raison de son rapport logique à des axiomes tenus pour assurément vrais, mais selon des observations où subsiste une incertitude. (...) L'inférence bayésienne révise la probabilité des propositions au fur et à mesure des observations, incluant, dans l'analyse de Thomas Bayes qui lui donne son nom, la première opinion (a priori) sur la probabilité des prémisses."
- Cerveau bayésien - Approche méthodologique Bayésienne - Web http://florencemeichel.blogspot.co.uk/2008/07/cerveau-baysien-et-approche.html
- Introduction au raisonnement Bayésien et à ses applications par Stanislas Dehaene :
"Point important, dans la théorie bayésienne, ces probabilités p ne sont plus interprétées comme les fréquences relatives d’événements (point de vue « fréquentiste »), mais comme des mesures du degré de connaissance subjective. Cette acception est bien couverte par le terme de « plausibilité », mais étant donné l’équivalence que nous venons de présenter, dans ce qui suit, nous continuerons à utiliser également le terme usuel de probabilité." http://www.college-de-france.fr/site/stanislas-dehaene/course-2012-01-10-09h30.htm
- Littérateurs, algorithmes de statistiques et langage http://www.rslnmag.fr/post/2013/10/04/Les-algorithmes-ces-litterateurs.aspx
"l'analyse des discours politiques peut prendre un autre sens avec les programmes de Jean Véronis. Ancien professeur de linguistique et d’informatique de l’université d’Aix-Marseille, il a bouleversé le web Français en utilisant les mots comme des données pour générer des outils de production statistiques. Ils ont permis aux lecteurs du Monde de découvrir quel homme politique utilise le plus tel ou tel mot, ou encore celui le plus cité dans la presse. Des comparateurs de mots ont ainsi vu le jour pour offrir une nouvelle littérature à la presse.
Mais ces traitements de texte informatique semblent avoir quelques limites dans leur interprétation."
- Analyse critique des statistiques fréquentistes par Henry Rouanet http://www.math-info.univ-paris5.fr/~lerb/rouanet/travaux_statistiques/liens_documents/proba.html
" L'idéologie fréquentiste détourne des analyses descriptives; elle donne une place démesurée aux hypothèses techniques; enfin elle exclut toute probabilité des hypothèses d'intérêt. En somme, elle bloque toute analyse inductive des données: cf. notre Dialogue "sur les grands systèmes de la statistique", le khi-deux; les commentaires de Guttman sur l'affaire Burt; sans parler de la récente mise en cause dans les médias de la recherche médicale."
- A/B testing : statistiques bayésiennes vs fréquentistes, un mauvais combat : "La statistique bayésienne déduit la probabilité d'un événement en tenant compte de celles d'autres événements déjà évalues : dans un contexte de test A/B, la connaissance a priori peut être affectée par un effet de saisonnalité ou simplement de tendance et fausser les résultats. En d'autres termes, le risque de détecter un faux positif devient beaucoup plus élevé. Pas forcément grave dans le cas d’un spam ; beaucoup plus problématique dans le cas d’un test A/B. (...) La méthode bayésienne a aussi comme inconvénient d'être nettement plus difficile à appréhender : les statistiques bayésiennes cherchent à calculer une distribution de probabilités, qui est un concept plus complexe qu'un simple indicateur de confiance. (...) il n’y a pas de meilleure méthode qu’une autre, l’important est de bien comprendre les logiques sous-jacentes ou d’être conseillé par quelqu’un qui les maîtrise bien." http://www.journaldunet.com/solutions/expert/61249/a-b-testing---statistiques-bayesiennes-vs-frequentistes--un-mauvais-combat.shtml
- Distinguer savoir et connaissance http://florencemeichel.blogspot.fr/2009/11/distinguer-savoir-et-connaissance.html
- Données et éthique http://florencemeichel.blogspot.co.uk/2013/03/donnees-et-ethique.html
A lire aussi sur biais et sciences :
- Biais de confirmation d'hypothèse http://www.comoria.com/244783/Biais_de_confirmation_d%27hypoth%C3%A8se
"Wason relata ce phénomène comme étant le biais de confirmation, où les sujets cherchent systématiquement une preuve de confirmation plutôt que d'infirmation. Le biais de confirmation était l'explication originelle de Wason pour les erreurs systématiques faites par les sujets dans la tâche de sélection de Wason. En substance, les sujets choisissaient seulement d'examiner des cartes qui confirmeraient la règle donnée au lieu de l'infirmer. Certains ont soutenu que le biais de confirmation était la cause de croyances sociales auto-réalisatrices qui se perpétuent."
- Biais de publication https://fr.wikipedia.org/wiki/Biais_de_publication
" Un biais de publication désigne en science le fait que les chercheurs et les revues scientifiques ont bien plus tendance à publier des expériences ayant obtenu un résultat positif (statistiquement significatif) que des expériences ayant obtenu un résultat négatif (soutenant l'hypothèse nulle). Ce biais de publication donne aux lecteurs une perception biaisée (vers le positif) de l'état de la recherche."
- Expertise scientifique, histoire et preuve http://questionsdecommunication.revues.org/7073
" L’expertise, commandée pour résoudre un cas qui présente des incertitudes, produit un jugement scientifique et, en même temps, se trouve au centre d’une rencontre d’intérêts contraires qui animent des personnes de diverses disciplines. L’expert émet un avis qui doit permettre une prise de décision. Or, dans tout jugement, intervient le facteur humain et une part de subjectivité subsiste. Les éléments fournis peuvent servir à d’autres acteurs et autoriser de nouvelles interprétations. À travers deux faits historiques, l’expertise paraît être une méthode d’investigation qui ne fournit pas de réponses aux questions posées, mais semble apporter un éclairage nouveau à propos des phénomènes observés. Elle s’ajoute donc, en tant que science auxiliaire, aux travaux de l’historien, et joue un rôle de caution dans la démonstration d’une hypothèse. La complémentarité des disciplines est réelle mais, même s’il y a vérité scientifique, elle n’administre pas nécessairement la preuve. Comme l’a souligné Philippe Corcuff (1995 : 116), « c’est plutôt un nouvel usage des notions de vérité scientifique et de réalité qui se dessine. Les vérités scientifiques qui, elles-mêmes, ne visent qu’une part des usages sociaux de la notion de vérité […], apparaissent plurielles, historiquement et socialement situées, provisoires, mais la notion de vérité continue à constituer un horizon régulateur pour le travail scientifique ». L’histoire est semée de possibles et son écriture traduit ces incertitudes. Le métier d’historien consiste à dissiper les doutes et contribue à établir l’authenticité des faits. L’expertise peut alors se dessiner comme une stratégie utilisée pour s’approcher de la vérité."
- About manipulated and fabricated data ==> Question " “If the field was truly self-correcting, why didn't we correct any single one of them?” http://www.nature.com/news/replication-studies-bad-copy-1.10634
- Sur les biais d'intérêts, lire aussi la "la fabrique du mensonge" écrit par le journaliste scientifique au Monde Stéphane Foucart (prix Diderot-Curien 2012)
"la possibilité d'un choix éclairé des individus est le fondement de la démocratie" p. 26, éditions Denoël, 2013
------------------------------------------------------------
MAJ du 11 décembre 2014 :
Ne pas désespérer :) ... à propos de l'estimation de l'étrangeté des étiquettes https://www.rocq.inria.fr/axis/modulad/archives/numero-42/WORD-11Articles/3.%20CHERVONENKIS-final.pdf - Lire aussi cet article sur la pertinence des algorithmes http://www.internetactu.net/2012/11/29/la-pertinence-des-algorithmes/ "la catégorisation des données est une intervention politique et sémantique puissante, qui dessine une ligne de démarcation forte entre les données."
MAJ du 18 février 2016 :
Il semblerait que l'approche Bayésienne soit utilisée dans l'évaluation des monnaies qui s'appuient sur le processus "Blockchain" - " CRIX relies on liquidity measures and on the Bayesian information criterion (BIC), see [3]. The BIC is used to decide how many cryptos shall participate in a representative proxy of the market." from CRIX or evaluating Blockchain based currencies http://crix.hu-berlin.de/data/SFB649DP2015-048.pdf
NB Les processus de gouvernementalité algorithmique, en particulier ceux articulés sur un design de blockchain ne dispensent ni de l'intelligence des gens, ni de leur éthique, au contraire ils les requièrent.
C'est en tout cas ce à quoi nous invite Olivier Auber dans ce billet, synthèse de ses nombreuses recherches sur les réseaux (Aéthogénèse etc...)
C'est en tout cas ce à quoi nous invite Olivier Auber dans ce billet, synthèse de ses nombreuses recherches sur les réseaux (Aéthogénèse etc...)
MAJ du 9 juin 2019
La complémentarité du livre " Des intelligences TRES artificielles" écrit par JL Dessalles (où il explique, entre autres choses, les principes de fonctionnement des réseaux neuronaux et de l'intelligence symbolique) avec le livre d'Olivier Auber " ANOPTIKON " (qui évoque, entre autres choses, la perspective quantique, les noloops, les travaux de Diederik Aerst et Massimilliano Sassoli De Bianchi, le raisonnement Bayésien etc... et bien entendu la démarche du Générateur Poïétique dans ces contextes) apporte à ce billet un éclairage fondamental, nécessaire et pertinent.
Commentaires