Difference between revisions of "Méthodologie d'Analyse des Phénomènes Inexpliqués"
(→Questions) |
|||
(41 intermediate revisions by the same user not shown) | |||
Ligne 1: | Ligne 1: | ||
− | < | + | <div class="header"> |
− | < | + | <meta property="og:image" content="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/evaluation_methodology.jpg" /> |
− | < | + | <meta name="description" content="Pour sortir des querelles epistémologiques liées aux Phénomènes Inexpliqués, présentation d'une méthode d'objectivation de l'information qui permet de mesurer la fiabilité des hypothèses explicatives envisagées, d'évaluer le degré d'inconnu d'un phénomène et de le quantifier. Notions de Quantité d'Information, de Fiabilité, d'Etrangeté et de Consistance. " /> |
− | < | + | <meta property="header:image" content="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/evaluation_methodology_head.jpg" /> |
− | < | + | </div> |
− | < | + | |
− | < | + | Pour tenter de sortir des querelles epistémologiques liées aux Phénomènes Inexpliqués, j'expose une méthode d'objectivation de l'information qui permet de mesurer la fiabilité des hypothèses explicatives envisagées, d'évaluer le degré d'inconnu d'un phénomène et de le quantifier. Vous découvrirez une méthodologie d'investigation que j'ai mise au point au cours de ces dernières années et aujourd'hui utilisée par le GEIPAN. Une présentation en a été faite en octobre 2022, lors du colloque du CAIPAN organisé par le GEIPAN (Groupement d'Expertise et d'Information sur les Phénomènes Aérospatiaux Non Identifiés). |
− | < | + | |
− | < | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_1.SVG"> |
− | < | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_2.SVG"> |
− | < | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_3.SVG"> |
− | < | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_4.SVG"> |
− | < | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_5.SVG"> |
− | < | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_6.SVG"> |
− | < | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_7.SVG"> |
− | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_8.SVG"> | |
− | < | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_9.SVG"> |
− | < | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_10.SVG"> |
− | < | + | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_11.SVG"> |
+ | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_12.SVG"> | ||
+ | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_13.SVG"> | ||
+ | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_14.SVG"> | ||
+ | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_15.SVG"> | ||
+ | |||
+ | == Questions == | ||
+ | |||
+ | ===Q : A chaque cas, sa propre grille d evaluation ?=== | ||
+ | |||
+ | Pour chaque cas, plusieurs hypothèses devraient être évaluées. On testera ici l'hypothèse "balle de tennis" ou l'hypothèse "soleil". | ||
+ | Chaque hypothèse se décline par une grille d'évaluation, appelée "table des arguments". | ||
+ | Elle devrait contenir un ensemble d'éléments systématiquement vérifiés ainsi que des éléments spécifiques à l'hypothèse évaluée. | ||
+ | |||
+ | ===Q : La valeur de l'argument dans l'intervalle, qui l'évalue ?=== | ||
+ | |||
+ | Sur l'aspect "micro", cette présentation est encore trop courte : elle n'évoque pas, compte tenu du timing qui était accordé, la méthode d'évaluation de chacun des "items / éléments" vérifiés dans ces grilles d'évaluation d'hypothèses : je produirai une autre présentation pour cela. | ||
+ | De plus, pour être exhaustif, il faut préciser que ces "items / éléments" devraient être vérifiés, au moins au début et à la fin de l'observation. | ||
+ | |||
+ | Il est à la charge de l'enquêteur de réaliser cette évaluation. | ||
+ | Pour cela, il peut s'appuyer sur l'outil informatique qui lui propose une réponse "calculée" et "justifiée". | ||
+ | Il produit des mesures "objectivées", c'est à dire non ambigües, basées sur des mesures de distance deux à deux entre les éléments. C'est tout le jeu de cette méthode : réduire les facteurs de subjectivité. | ||
+ | |||
+ | Par exemple, pour la couleur : nous savons mesurer la [https://fr.wikipedia.org/wiki/%C3%89cart_de_couleur distance entre deux couleurs] et nous pouvons nous appuyer sur un calcul relativement simple. Il y a des éléments pour lesquels ce calcul est plus complexe (par exemple, les formes). Cela nécessite généralement de revenir à une connaissance fine de la psychophysique et chaque élément/dimension évalué s'appuie sur des calculs spécifiques qu'il faut rendre explicite et compréhensible par tous. Généralement, il s'agit d'une opération de mesure de distance entre deux informations. | ||
+ | |||
+ | Sur les cas difficiles/complexes (ou avec des informations lacunaires), il restera une marge de manoeuvre interprétative : après l'enquête le cas et les hypothèses testées sont présentées à un panel d'experts. De manière à couvrir le champ des possibles et des interprétations possibles, on cherchera à faire en sorte que ce pannel soit "représentatif" c'est à dire constitué de personnes ne pensent pas de la même façon (experts issus de domaines différents, par ex.). | ||
+ | Cela permet deux choses: | ||
+ | * d'identifier des hypothèses auxquelles l'investigateur n'avait pas éventuellement pensé (et reboucler avec lui). | ||
+ | * d'essayer de trouver des réponses (ou pas) concernant les éléments qui résistent. | ||
+ | |||
+ | Généralement, ce sont les éléments évalués qui ne "fittent pas" sur lesquels le débat interprétatif portera : la méthode permet assez rapidement de les identifier et de porter le focus sur ceux-ci. | ||
+ | |||
+ | ===Q : En relecture, j'aurais imaginé un panel de personnes qui ne connaissent pas la nature de l'hypothese testée mais qui voient uniquement "Sphere" "Yellow"...=== | ||
+ | |||
+ | C'est une bonne idée car, dans l'absolu, tout ce qui peut concourir à ne pas préjuger du résultat est intéressant. | ||
+ | Maintenant, si l'enquête est bien réalisée, chaque hypothèse porte en elle des éléments de vérification spécifiques qu'il convient d'exhiber si l'on veut être exhaustif. | ||
+ | Par exemple, l'hypothèse "'''maquette suspendue à un fil prise en photo'''", amènerait un élément tel que '''recherche de traces de fil sur l'image numérisée''' et l'emploi d'un algorithme de recherche dont il conviendrait aussi de faire l'autocritique. | ||
+ | |||
+ | Je publierai un jour la liste des hypothèses majeures et de leurs éléments de vérification spécifiques liés. | ||
+ | |||
+ | Si cette évaluation n'est pas réalisée en amont par l'enquêteur (ou par le logiciel), alors la présentation à un panel d'experts (= le jury) ne sera pas complète/pertinente. | ||
+ | |||
+ | ===Q : Est-ce que la valeur de l'hypothèse pourrait être une moyenne ?=== | ||
+ | |||
+ | Surtout pas ! La question posée lorsque l'on veut résoudre une hypothèse est : mon "objet" appartient ou n'appartient-il pas à mon ensemble "Hypothèse" (ensemble des voitures, avions, satellites, etc.). | ||
+ | Qu'est ce qui fait qu'un objet est (ou n'est pas) une voiture / un satellite / un avion / etc ? Des critères spécifiques et parfois immutables. | ||
+ | Cela appelle une réponse "relativement" binaire : un seul élément descriptif peut faire que mon objet n'appartient plus à mon ensemble, alors que la moyenne de ses éléments comparés sera très bonne. En travaillant par "moyennes" on crée un effet de bord : toutes les hypothèses testées se ressemblent et il est bien plus difficile d'évaluer leur pertinence relative. | ||
+ | |||
+ | Cette méthodologie d'objectivation pourrait tout à fait être déclinable au monde judiciaire. | ||
+ | |||
+ | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_16.SVG"> | ||
+ | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_17.SVG"> | ||
+ | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_18.SVG"> | ||
+ | <embed src="http://www.u-sphere.com/wiki/images/UAP_evaluation_methodology/UAP_Analysis_Methodology_19.SVG"> |
Latest revision as of 10:13, 16 décembre 2022
Pour tenter de sortir des querelles epistémologiques liées aux Phénomènes Inexpliqués, j'expose une méthode d'objectivation de l'information qui permet de mesurer la fiabilité des hypothèses explicatives envisagées, d'évaluer le degré d'inconnu d'un phénomène et de le quantifier. Vous découvrirez une méthodologie d'investigation que j'ai mise au point au cours de ces dernières années et aujourd'hui utilisée par le GEIPAN. Une présentation en a été faite en octobre 2022, lors du colloque du CAIPAN organisé par le GEIPAN (Groupement d'Expertise et d'Information sur les Phénomènes Aérospatiaux Non Identifiés).
Sommaire
- 1 Questions
- 1.1 Q : A chaque cas, sa propre grille d evaluation ?
- 1.2 Q : La valeur de l'argument dans l'intervalle, qui l'évalue ?
- 1.3 Q : En relecture, j'aurais imaginé un panel de personnes qui ne connaissent pas la nature de l'hypothese testée mais qui voient uniquement "Sphere" "Yellow"...
- 1.4 Q : Est-ce que la valeur de l'hypothèse pourrait être une moyenne ?
Questions
Q : A chaque cas, sa propre grille d evaluation ?
Pour chaque cas, plusieurs hypothèses devraient être évaluées. On testera ici l'hypothèse "balle de tennis" ou l'hypothèse "soleil". Chaque hypothèse se décline par une grille d'évaluation, appelée "table des arguments". Elle devrait contenir un ensemble d'éléments systématiquement vérifiés ainsi que des éléments spécifiques à l'hypothèse évaluée.
Q : La valeur de l'argument dans l'intervalle, qui l'évalue ?
Sur l'aspect "micro", cette présentation est encore trop courte : elle n'évoque pas, compte tenu du timing qui était accordé, la méthode d'évaluation de chacun des "items / éléments" vérifiés dans ces grilles d'évaluation d'hypothèses : je produirai une autre présentation pour cela. De plus, pour être exhaustif, il faut préciser que ces "items / éléments" devraient être vérifiés, au moins au début et à la fin de l'observation.
Il est à la charge de l'enquêteur de réaliser cette évaluation. Pour cela, il peut s'appuyer sur l'outil informatique qui lui propose une réponse "calculée" et "justifiée". Il produit des mesures "objectivées", c'est à dire non ambigües, basées sur des mesures de distance deux à deux entre les éléments. C'est tout le jeu de cette méthode : réduire les facteurs de subjectivité.
Par exemple, pour la couleur : nous savons mesurer la distance entre deux couleurs et nous pouvons nous appuyer sur un calcul relativement simple. Il y a des éléments pour lesquels ce calcul est plus complexe (par exemple, les formes). Cela nécessite généralement de revenir à une connaissance fine de la psychophysique et chaque élément/dimension évalué s'appuie sur des calculs spécifiques qu'il faut rendre explicite et compréhensible par tous. Généralement, il s'agit d'une opération de mesure de distance entre deux informations.
Sur les cas difficiles/complexes (ou avec des informations lacunaires), il restera une marge de manoeuvre interprétative : après l'enquête le cas et les hypothèses testées sont présentées à un panel d'experts. De manière à couvrir le champ des possibles et des interprétations possibles, on cherchera à faire en sorte que ce pannel soit "représentatif" c'est à dire constitué de personnes ne pensent pas de la même façon (experts issus de domaines différents, par ex.). Cela permet deux choses:
- d'identifier des hypothèses auxquelles l'investigateur n'avait pas éventuellement pensé (et reboucler avec lui).
- d'essayer de trouver des réponses (ou pas) concernant les éléments qui résistent.
Généralement, ce sont les éléments évalués qui ne "fittent pas" sur lesquels le débat interprétatif portera : la méthode permet assez rapidement de les identifier et de porter le focus sur ceux-ci.
Q : En relecture, j'aurais imaginé un panel de personnes qui ne connaissent pas la nature de l'hypothese testée mais qui voient uniquement "Sphere" "Yellow"...
C'est une bonne idée car, dans l'absolu, tout ce qui peut concourir à ne pas préjuger du résultat est intéressant. Maintenant, si l'enquête est bien réalisée, chaque hypothèse porte en elle des éléments de vérification spécifiques qu'il convient d'exhiber si l'on veut être exhaustif. Par exemple, l'hypothèse "maquette suspendue à un fil prise en photo", amènerait un élément tel que recherche de traces de fil sur l'image numérisée et l'emploi d'un algorithme de recherche dont il conviendrait aussi de faire l'autocritique.
Je publierai un jour la liste des hypothèses majeures et de leurs éléments de vérification spécifiques liés.
Si cette évaluation n'est pas réalisée en amont par l'enquêteur (ou par le logiciel), alors la présentation à un panel d'experts (= le jury) ne sera pas complète/pertinente.
Q : Est-ce que la valeur de l'hypothèse pourrait être une moyenne ?
Surtout pas ! La question posée lorsque l'on veut résoudre une hypothèse est : mon "objet" appartient ou n'appartient-il pas à mon ensemble "Hypothèse" (ensemble des voitures, avions, satellites, etc.). Qu'est ce qui fait qu'un objet est (ou n'est pas) une voiture / un satellite / un avion / etc ? Des critères spécifiques et parfois immutables. Cela appelle une réponse "relativement" binaire : un seul élément descriptif peut faire que mon objet n'appartient plus à mon ensemble, alors que la moyenne de ses éléments comparés sera très bonne. En travaillant par "moyennes" on crée un effet de bord : toutes les hypothèses testées se ressemblent et il est bien plus difficile d'évaluer leur pertinence relative.
Cette méthodologie d'objectivation pourrait tout à fait être déclinable au monde judiciaire.