Science psychologique du crowdsourced – Wikipedia wiki

before-content-x4

La science du crowdsourced (à ne pas confondre avec la science des citoyens, un sous-type de science du crowdsource) fait référence aux contributions collaboratives d’un grand groupe de personnes aux différentes étapes du processus de recherche en science. En psychologie, la nature et la portée des collaborations peuvent varier dans leur application et dans les avantages qu’il offre.

after-content-x4

Qu’est-ce que le crowdsourcing? [ modifier ]]

Un complément à la façon traditionnelle de faire la science [ modifier ]]

Le crowdsourcing est un modèle d’approvisionnement collaboratif dans lequel un grand nombre et diverses personnes ou organisations peuvent contribuer à un objectif ou un projet commun.

Les premiers exemples de science du crowdsourcing se trouvent au cours du 19e siècle. Un professeur de l’Université de Yale a lancé un appel à la participation ouverte des citoyens afin de maximiser le nombre et la diversité des observations qu’il pourrait obtenir sur les Leonids du phénomène de tempête de météores de 1833. [d’abord]

La science du crowdsourced est réservée depuis longtemps et n’a gagné que récemment en popularité en science. En fait, cela aide à surmonter plusieurs limites du modèle classique sur lequel la science a été menée jusqu’à présent. Par exemple, en psychologie, la recherche scientifique a souvent été limitée par les petits échantillons et le manque de diversité dans les populations étudiées. [2] Ces limites peuvent être attachées avec une approche plus collaborative de la recherche scientifique (c’est-à-dire la science du crowdsourced). [3]

Un concept bidimensionnel [ modifier ]]

Les initiatives de crowdsourcing peuvent être décrites le long de deux axes continus différents. [4] La première dimension représente le degré de communication entre les membres du projet, allant de très peu de collaborateurs et peu de communication, à une grande foule de collaborateurs avec une riche communication. La deuxième dimension correspond au degré d’inclusivité, variant de la sélection de groupes de personnes ayant une expertise élevée dans le domaine d’intérêt, à ouvrir à quiconque – avec ou sans expertise – intéressé par la collaboration. Cette double distinction entraîne quatre types de projets scientifiques sur le crowdsourced. Cependant, ces deux dimensions résident sur un continuum: un seul projet n’est ni entièrement inclusif (vs sélectif) ni entièrement élevé (vs bas) en communication. [4]

Pourquoi le crowdsource Psychological Science? [ modifier ]]

Limites du modèle vertical traditionnel [ modifier ]]

En psychologie, la façon traditionnelle de faire la recherche suit un modèle vertical. [4] En d’autres termes, la plupart du temps, la recherche est effectuée par de petites équipes d’un laboratoire ou d’une université spécifique et organisée environ un ou deux chercheurs principaux (souvent appelés chercheurs principaux, ou PI). Cette petite équipe contribue à toutes les différentes étapes du projet de recherche: conception de la question de recherche, conception de l’étude, collecte de données, analyse des données, discussion des résultats et publication du manuscrit. [4]

after-content-x4

Cependant, la science verticale a ses propres limites qui peuvent entraver la progression de la science. La conduite de la science au sein de petites équipes indépendantes rend difficile la réalisation de projets à grande échelle (avec de grands échantillons, de grandes bases de données et une puissance statistique élevée), ce qui peut limiter la portée de la recherche. Dans la science traditionnelle, les chercheurs ont accès à moins de ressources, de données et de méthodologies. [4] Les petits projets d’équipe indépendants sont également limités dans les commentaires qu’ils peuvent obtenir sous d’autres angles. [4]

De nos jours, les équipes de recherche n’ont plus nécessairement à faire de compromis (par exemple, une petite taille d’échantillon, les mêmes stimuli, les mêmes contextes et aucune réplication), [4] Parce qu’une grande partie de ces limites pourrait être attachée par une recherche plus externalisée.

La crise de la réplication [ modifier ]]

Dans la méthode scientifique, la réplicabilité est un critère fondamental pour qualifier une théorie de scientifique. La crise de la réplication (ou la crise de crédibilité) est une crise méthodologique en science que les chercheurs ont commencé à reconnaître autour des années 2010. La controverse tourne autour du manque de reproductibilité de nombreuses découvertes scientifiques, y compris celles en psychologie (par exemple, parmi 100 études, moins de 50% des résultats ont été reproduits). [5] [6]

Certaines de ses principales causes sous-jacentes sont appelées «pratiques de recherche douteuses». [7] Ceux-ci incluent le p-hacking (c’est-à-dire l’exploitation des degrés de liberté des chercheurs jusqu’à ce qu’un résultat significatif soit obtenu), en harcèle (c’est-à-dire l’hypothèse après que les résultats soient connus), [8] biais de publication (c’est-à-dire la tendance parmi les revues savantes à publier uniquement des résultats significatifs), [9] erreurs de rapport statistique, [dix] [11] et une faible puissance statistique souvent en raison de petites tailles d’échantillon. [douzième] [6]

Parmi ces divers problèmes, les petites tailles d’échantillon et le manque de diversité dans les échantillons peuvent être traitées par la science du crowdsourced – augmentant la généralisation des résultats et donc leur réplicabilité également. En effet, les échantillons en psychologie reposent souvent sur des étudiants [13] et les populations occidentales, éduquées, industrialisées, riches et démocratiques (étranges). [14] [15] [16]

Pour ces raisons, la crise de la réplication a contribué à la montée en puissance des projets à grande échelle de crowdsourced, en particulier des projets de réplication organisés à une échelle internationale comme le projet de nombreuses laboratoires, [17] [18] [19] [20] [21] et l’accélérateur de science psychologique (PSA). [3] Ces projets externalisés visent à résoudre certains problèmes soulevés par la crise de la réplication, plus spécifiquement en évaluant la réplicabilité des études et la généralisation des résultats à d’autres populations et contextes.

Ambitions du modèle horizontal [ modifier ]]

Contrairement au modèle vertical de la recherche, le modèle horizontal – un principe inhérent de la science du crowdsource – repose principalement sur des variations en termes d’inclusivité et de communication. Son principe principal concerne la non-autorité d’un ou deux chercheurs en termes de ressources, de propriété et d’expertise. [22] Suivant ce principe, les différentes tâches d’un projet sont réparties entre de nombreux chercheurs. L’ensemble du projet est ensuite soutenu par une équipe, qui garantit la coordination des contributeurs. [4]

Un modèle horizontal parfait n’existe pas vraiment car les modèles verticaux et horizontaux sont plus conceptualisés comme des extrêmes d’un même continuum. [4] Ce modèle distribué de travaux scientifiques gagne en popularité dans la communauté scientifique. En environ 40 ans et dans différentes disciplines scientifiques, les équipes de recherche ont à peu près doublé de taille (de 2 à 4 personnes en moyenne). [23]

En encourageant des foules plus importantes à contribuer à des projets de recherche en psychologie, le modèle horizontal vise à réduire certaines limites de la verticale. Il a trois ambitions distinctes: [4]

  • Effectuer des œuvres de grande envergure
  • Encourager une science psychologique démocratisée
  • Établir des résultats robustes

Projets de recherche à grande échelle [ modifier ]]

La première ambition du modèle horizontal est de permettre aux chercheurs de mener des projets de recherche plus à grande échelle (c’est-à-dire des projets ambitieux qui ne peuvent pas être menés par de petites équipes). [4] En agrégeant diverses compétences et ressources, il est possible de passer d’un modèle où la recherche est définie par les moyens disponibles, à un modèle où la recherche elle-même définit les moyens nécessaires pour répondre à la question de recherche. [4]

Démocratiser les sciences psychologiques [ modifier ]]

La deuxième ambition du modèle horizontal est de compenser les inégalités (par exemple, en termes de reconnaissance, de statut et de succès dans la carrière d’un chercheur). La psychologie et plus généralement les sciences sociales montrent un fort biais de ce qu’on appelle l’effet Matthew [24] (c’est-à-dire les avantages académiques qui vont à ceux qui sont déjà les plus renommés).

Des chercheurs en début de carrière d’institutions moins renommées, de pays moins développés économiquement ou de groupes démographiques sous-représentés sont généralement moins susceptibles d’avoir accès à des projets de haut niveau. [25] Le crowdsourcing permet à ces chercheurs de contribuer à des projets percutants et de reconnaître leur travail. [4]

Résultats robustes [ modifier ]]

La troisième ambition du modèle horizontal est d’améliorer la robustesse, la généralisation et la fiabilité des résultats afin d’augmenter la crédibilité de la science psychologique. [4] [26] La collaboration horizontale entre les équipes de recherche facilite la réplication des études [27] [17] [28] et facilite la détection des tailles d’effet biaisées, du p-hacking et du biais de publication – des problèmes différents soulevés par la crise de réplication [29] (Voir aussi # la crise de la réplication).

Crowdsourcing dans la pratique [ modifier ]]

Contributions à différentes étapes de la recherche [ modifier ]]

Cette section vise à détailler comment le crowdsourcing peut contribuer aux différentes étapes du processus de recherche, de la génération d’idées de recherche à la publication des résultats.

Idées [ modifier ]]

L’idéation est la première étape de tout projet de recherche. En psychologie, il fait référence au processus de définition de l’idée générale derrière un projet – levée, la question de recherche et les hypothèses. Cette étape peut être effectuée en collaboration entre plusieurs chercheurs pour scanner un éventail plus large d’idées et sélectionner celles de l’intérêt et de l’impact les plus larges. [4] Face à une question de recherche, les différents collaborateurs peuvent apporter leur expertise dans la construction d’hypothèses.

Les foules peuvent également aider à générer de nouvelles idées pour résoudre des problèmes complexes, comme illustré par le projet Polymathe. [30] [trente et un] [32] [33]

Assemblage des ressources [ modifier ]]

Lors de l’assemblage des ressources, le crowdsourcing peut être utile, en particulier pour les laboratoires avec moins de ressources à leur disposition. [4] Des plateformes en ligne telles que Science Exchange et Studyswap permettent aux chercheurs d’établir de nouvelles lignes de communication et de partager des ressources entre les laboratoires. L’apparition des ressources des laboratoires du monde entier minimise les déchets et facilite la capacité des équipes de recherche à atteindre leurs objectifs. [4]

Le partage de tâches dans les laboratoires peut améliorer l’efficacité d’un projet de recherche, en particulier les très longs. En biologie, par exemple, l’étude de l’ensemble du génome prend beaucoup de temps. En distribuant son enquête et en combinant des ressources sur plusieurs laboratoires, il est possible d’accélérer le processus de recherche. [34]

Étudier le design [ modifier ]]

Il peut y avoir de nombreuses façons de concevoir une étude. Les équipes de recherche du monde entier n’ont pas non plus les mêmes antécédents théoriques, et ils ne sont pas tous équipés des mêmes matériaux. [4]

Le crowdsourcing peut être utile dans le cas des réplications conceptuelles (c’est-à-dire tester une même question de recherche grâce à différentes opérations). [35] [36] Lors du test d’une même question de recherche, les variations des conceptions d’étude peuvent conduire à de fortes variations dans les estimations de la taille des effets. [28] La diversification des méthodes utilisées pour tester la même hypothèse dans différentes populations – à travers les projets collaboratifs – consiste à de meilleures estimations de la véritable cohérence d’une affirmation scientifique. [4]

Collecte de données [ modifier ]]

En psychologie, la collecte de données repose souvent sur des échantillons tirés des populations occidentales, instruites, industrialisées, riches et démocratiques (étranges), ce qui empêche la généralisation globale des résultats. [15] [16] Crowdsourcing le processus de collecte de données en s’appuyant sur la collecte de données multiples et les plates-formes de crowdsourcing en ligne (par exemple, Amazon Mechanical Turk, prolifique prolifique [37] ) facilite l’atteinte d’un public plus large de participants issus de différents horizons culturels et de populations non-Weird. [4] Lorsque la question de recherche permet de s’appuyer sur des échantillons d’Internet, c’est également un moyen facile de recruter des échantillons plus importants de participants avec un minimum de contribution financière et dans un court laps de temps. [38] [39] [40]

La plupart du temps, les membres du grand public sont recrutés pour subir des études en tant que participants à la recherche, mais ils peuvent également être recrutés pour collecter des données et des observations. [4]

L’analyse des données [ modifier ]]

Dans la recherche, l’analyse des données fait référence au processus de nettoyage, de transformation et de modélisation des données à l’aide d’outils statistiques, souvent dans le but de répondre à une question de recherche. Dans un projet de recherche, cela se fait généralement par un seul analyste (ou équipe) et entraîne une analyse unique d’un ensemble de données.

Les stratégies analytiques peuvent différer considérablement d’une équipe à l’autre. [4] [41] Par exemple, une étude a révélé que parmi 241 articles publiés sur l’IRMf, 223 stratégies analytiques différentes ont été utilisées. [42] [43] De plus, il peut y avoir de nombreuses façons de tester une seule hypothèse à partir du même ensemble de données. Bien que défendables, les décisions dans l’analyse des données restent subjectives, ce qui peut grandement affecter les résultats de la recherche. [41] Un moyen de contrer cette subjectivité est la transparence. Lorsque des données, des plans analytiques et des décisions analytiques sont rendus transparents et ouverts au reste de la communauté, il facilite la critique et donne la possibilité d’explorer d’autres moyens d’analyser les données. [41]

«Le crowdsourcing L’analyse des données révèle dans quelle mesure les conclusions de recherche dépendent de la décision défendable mais subjective prise par différents analystes.» – Uhlmann et al., 2019 [4]

Rédaction de rapports de recherche [ modifier ]]

Un rapport de recherche est un document signalant les résultats d’un projet de recherche. La qualité globale d’un rapport de recherche peut bénéficier des pratiques de crowdsourcing, en particulier pendant le processus d’écriture. [44] Le regroupement d’un grand nombre de contributeurs augmente la gamme d’expertise et de perspectives, [44] qui contribue à construire des arguments plus solides. [4] Cela facilite également la relecture (par exemple, la capture d’erreurs grammaticales, le phrasé étrange, les fautes de frappe, les biais, les erreurs factuelles, la vérification des réclamations). [4] [44]

Pour faciliter la rédaction collaborative, certains chercheurs ont suggéré des lignes directrices pour l’écriture de manuscrits avec de nombreux auteurs. [44] Il devrait toujours y avoir un auteur de premier plan (ou quelques-uns, mais avec des responsabilités individuelles) qui s’occupe de la gestion du processus d’écriture et assume la responsabilité explicite de toute erreur – éconoder la diffusion de responsabilité en cas d’erreurs. [44] Il est également recommandé que les principaux auteurs suivent les quatre principes généraux mentionnés ci-dessous: [44]

  • Care en créditant l’équipe de coauteurs
  • Communication de masse claire et fréquente
  • Assurez-vous que les matériaux associés au manuscrit sont bien organisés
  • Prise de décision précoce et délibérée

Revue par les pairs [ modifier ]]

Avant d’être publié dans une revue universitaire, les articles soumis subissent une revue par les pairs (c’est-à-dire le processus de réalisation d’un travail académique d’un auteur examiné par des experts du même domaine). En règle générale, il est effectué par un nombre limité de critiques sélectionnés. Le crowdsourcing Le processus d’examen par les pairs augmente les chances d’obtenir des examens d’un plus grand nombre d’experts dans le domaine pertinent. [4] C’est également un moyen d’augmenter considérablement les opportunités de meilleures critiques et de vérification des faits plus rapide avant la publication d’un article. [45]

Revue par des pairs sur le crowdsource peut être réalisée aux côtés [quarante-six] (par exemple, par le biais de plateformes centralisées dédiées à la discussion et à la critique des rapports de recherche). [47]

Exemples en psychologie [ modifier ]]

La crise de la réplication a servi de prélude à l’émergence de nombreux projets collaboratifs à grande échelle. Certains des plus importants incluent le projet Manylabs, [17] [18] [19] [20] [21] Le projet Manybabies, [48] [49] Le projet #EEGMANYLABS, [50] le projet de reproductibilité, [6] Le projet de réplication et d’éducation collaboratif (CREP), [51] [52] et l’accélérateur de science psychologique (PSA). [3]

Projets entourant la pandémie Covid-19 [ modifier ]]

En réponse à la pandémie Covid-19, plusieurs initiatives visant à améliorer la collaboration entre des scientifiques de divers domaines ont été lancés. [53] [54]

Des études explorant l’impact de la pandémie Covid-19 sur le comportement et la santé mentale sont menées [55] et largement partagé sur les réseaux sociaux tels que Twitter. [56] [57] [58] [59] [60] [soixante-et-un]

Dans ce contexte, le PSA a fait un appel à des études entourant la maladie Covid-19 [62] et récupéré 66 propositions d’étude de différents experts en une semaine. [63] À la date de mai 2020, trois études ont été sélectionnées et sont menées dans le monde. [63] Deux de ces études visent à atteindre une meilleure adoption des comportements de santé pour éviter la propagation de Covid-19, et on vise à aider les gens à réguler leurs émotions négatives pendant la crise. [63] Ce projet vise à obtenir des résultats qui pourraient aider tous les pays à faire face à la pandémie avec des moyens adaptés à leur population.

Défis et orientations futures [ modifier ]]

Confrontant les modèles verticaux et horizontaux [ modifier ]]

Bien qu’un modèle horizontal de conduite de la science semble prometteur de surmonter certaines limites du modèle vertical (voir également #limits du modèle vertical traditionnel et #Ambitions du modèle horizontal), il est difficile d’évaluer empiriquement ses avantages. [4] Il n’est pas clair si deux ensembles de recherches qui étudient la même question – par une manière verticale ou horizontale de faire la science – entraîneraient des résultats différents ou non. [4]

Indépendance financière [ modifier ]]

Actuellement, pour soutenir un projet collaboratif, les chercheurs doivent soit utiliser de l’argent à partir de leurs propres subventions, soit demander des fonds. [3] Ces projets sont donc limités dans les études qu’ils peuvent mener sans indépendance financière. [3]

La coordination des centaines de laboratoires pour mener une étude nécessite des travaux administratifs conséquents. [3] [4] Des structures comme l’accélérateur de sciences psychologiques (PSA) doivent s’assurer que chaque laboratoire participant récupère l’approbation de l’éthique pour mener une étude donnée (voir également le comité d’examen institutionnel). Dans le PSA, ce travail de fond est actuellement achevé volontairement par des équipes ou des chercheurs dédiés [soixante-quatre] à côté de leur occupation principale. [3] En atteignant une indépendance financière (comme c’est le cas pour le CERN), ces projets pourraient optimiser leur fonctionnement grâce à l’ouverture d’emplois dédiés à ces missions.

Paternité à l’ère de la science du crowdsourced [ modifier ]]

Le cheminement de carrière d’un chercheur dans le monde académique (c’est-à-dire les opportunités d’emploi, les attributions de subventions, etc.) dépend des contributions majeures aux projets de recherche, qui est souvent évaluée par le nombre de publications où l’on apparaît comme l’auteur principal. [65] En psychologie, il est courant de répertorier les auteurs par ordre de contribution, la participation diminuant à mesure que nous descendons dans la liste. [65] La vérité est qu’il n’est pas rare que plusieurs auteurs sur le même article aient contribué également au projet, mais de différentes manières. [66] En ce sens, les contributeurs d’un projet n’obtiennent pas toujours le crédit qu’ils méritent – comme l’ordre dans lequel les auteurs sont répertoriés ne capture pas bien la contribution de chaque auteur. Cela est particulièrement vrai pour les projets collaboratifs à grande échelle avec de nombreux contributeurs (par exemple, le projet PSA001 compte plus de 200 contributeurs). [soixante-sept]

Une alternative au système de paternité actuelle est la taxonomie de crédit, une taxonomie décrivant 14 catégories distinctives (par exemple, la conceptualisation du projet, l’administration du projet, l’acquisition de financement, l’enquête) qui représentent les rôles généralement joués par les contributeurs dans un projet scientifique. [65] [68] Les articles reposant sur cette taxonomie permettent une description plus représentative de l’implication de chaque contributeur sur un projet.

Développement de pratiques de science ouverte et de crowdsourced [ modifier ]]

L’inscription des étudiants à travers différents projets de collaboration pourrait favoriser les sciences ouvertes et les pratiques de crowdsourced au début de la carrière d’un chercheur. [4] Par exemple, dans le projet de réplication et d’éducation collaboratif (CREP), [51] Les étudiants apprennent les racines et l’importance de ces pratiques envers la réplication des principales découvertes récentes en psychologie.

Les politiques éditoriales des revues scientifiques jouent également un rôle dans l’adoption de la science ouverte et des pratiques externalisées, en particulier en définissant de nouveaux critères de publication. [4] Par exemple, plus de 200 revues adoptent désormais un format «en principe acceptant» des articles de révision par les pairs. [69] Dans ce format de publication, les articles sont acceptés pour publication avant la collecte de données, sur la base du cadre théorique, de la méthodologie et du plan d’analyse. [69]

Problèmes restants [ modifier ]]

La flexibilité dans les analyses de données et autres biais que les projets collaboratifs devraient aborder en agrégeant les experts ne sont pas toujours surmontés. [70]

Il a également été démontré que des projets de crowdsourcés impliquant des acteurs à faible formation et à faible implimation (par exemple, les étudiants) peuvent conduire à la falsification des données. [71] La liaison d’un large éventail de contributeurs peut ainsi impliquer des problèmes structurels qui peuvent avoir un impact sur les résultats de la recherche.

Les deux questions mettent en évidence l’importance des pratiques éducatives sur les sciences ouvertes et les pratiques de crowdsourced (voir également #Developping Open-Science and Crowdsourced Practices).

Controverses [ modifier ]]

Les controverses entourant les sciences du crowdsourced n’impliquent pas directement une critique de la science du crowdsourcée elle-même, mais plutôt ses coûts – à la fois en termes d’investissement financier et de temps. [72] Les pratiques collaboratives dans la recherche restent très coûteuses et font face à un nombre important de défis. [72] Les solutions pour relever ces défis nécessitent des changements structurels importants au sein des établissements de recherche et ont des répercussions importantes sur les carrières académiques des chercheurs (voir également #Challenge et orientations futures).

Le passage d’un modèle vertical vers un modèle plus horizontal était en partie motivé par la crise de réplication en psychologie. Cependant, certains auteurs sont sceptiques quant à l’étendue de cette crise en psychologie. [soixante-treize] [74] Selon ces auteurs, l’échec à reproduire la plupart des résultats est surestimé et principalement en raison d’un manque de fidélité dans les protocoles de réplication. [soixante-treize] Ces affirmations atténuent si les grands projets de recherche collaborative en valent le coût, ce qui suggère qu’un changement vers un modèle horizontal de faire la science peut ne pas être nécessaire.

Compte tenu du coût des projets de crowdsourcés et des ressources dont ils ont besoin, le crowdsourcing peut ne pas toujours être l’approche la plus optimale. [72] Néanmoins, l’approche scientifique du crowdsourced a aidé le développement d’outils à partir desquels un projet – en collaboration ou non – peut bénéficier. Une approche optimale serait un compromis entre les modèles verticaux et horizontaux, qui dépendraient de la question de recherche à accomplir et des contraintes de chaque projet. [4] [72]

Voir également [ modifier ]]

Liens externes [ modifier ]]

Les références [ modifier ]]

  1. ^ Littmann, Mark; Suomela, Todd (juin 2014). “Crowdsourcing, la grande tempête de météores de 1833 et la fondation de la science des météores”. Effort . 38 (2): 130–138. est ce que je: 10.1016 / j.endeavour.2014.03.002 . PMID 24917173 .
  2. ^ Anderson, Samantha F.; Kelley, Ken; Maxwell, Scott E. (13 septembre 2017). “Planification de la taille de l’échantillon pour une puissance statistique plus précise: une méthode ajustant les tailles d’effet d’échantillon pour les biais de publication et l’incertitude”. Sciences psychologiques . 28 (11): 1547–1562. est ce que je: 10.1177 / 0956797617723724 . PMID 28902575 . S2cid 3147299 .
  3. ^ un b c d C’est F g Moshoontz, Hannah; et al. (1er octobre 2018). “L’accélérateur de sciences psychologiques: faire progresser la psychologie à travers un réseau collaboratif distribué” . Progrès dans les méthodes et les pratiques en sciences psychologiques . d’abord (4): 501–515. est ce que je: 10.1177 / 2515245918797607 . PMC 6934079 . PMID 31886452 .
  4. ^ un b c d C’est F g H je J k l m n O p q r s t dans dans Dans X et Avec AA un B et publicité Mais de Uhlmann, Eric Luis; Ebersole, Charles R.; Chartier, Christopher R.; Erenningon, Timothy M.; Kidwell, Mallory C.; Lai, Calvin K.; McCarthy, Randy J.; Riegelman, Amy; Tooth argenté, Raphael; Nosek, Brian A. (juillet 2019). “Utopie scientifique III: science du crowdsourcing” . Perspectives sur les sciences psychologiques . 14 (5): 711–733. est ce que je: 10.1177 / 1745691619850561 . PMID 31260639 . S2cid 149202148 .
  5. ^ Flore, Paulette C.; Wicherts, Jelte M. (février 2015). “La menace des stéréotypes influence-t-elle les performances des filles dans des domaines stéréotypés? Une méta-analyse”. Journal of School Psychology . 53 (1): 25–44. est ce que je: 10.1016 / j.jsp.2014.10.002 . PMID 25636259 .
  6. ^ un b c Collaboration en science ouverte (août 2015). “Estimation de la reproductibilité des sciences psychologiques”. Science . 349 (6251): AAC4716. deux: 10.1126 / science.aac4716 . HDL: 10722/230596 . ISSN 0036-8075 . PMID 26315443 . S2cid 218065162 .
  7. ^ John, Leslie K.; Loewenstein, George; Prelec, Drazen (16 avril 2012). “Mesurer la prévalence des pratiques de recherche douteuses avec des incitations à la vérité”. Sciences psychologiques . 23 (5): 524–532. est ce que je: 10.1177 / 0956797611430953 . PMID 22508865 . S2cid 8400625 .
  8. ^ Kerr, Norbert L. (août 1998). “Harting: Hypothesing après les résultats est connu” . Revue de la personnalité et de la psychologie sociale . 2 (3): 196–217. est ce que je: 10.1207 / S15327957PPR0203_4 . PMID 15647155 . S2cid 22724226 .
  9. ^ Fanelli, Daniele (21 avril 2010). “Les pressions pour publier augmentent les préjugés des scientifiques? Un soutien empirique des données des États américains” . Plos un . 5 (4): E10271. Bibcode: 2010ploso … 510271f . est ce que je: 10.1371 / journal.pone.0010271 . PMC 2858206 . PMID 20422014 .
  10. ^ Bakker, Marjan; Wicherts, Jelte M. (15 avril 2011). “Le (MIS) rapport des résultats statistiques dans des revues en psychologie” . Méthodes de recherche sur le comportement . 43 (3): 666–678. est ce que je: 10.3758 / S13428-011-0089-5 . PMC 3174372 . PMID 21494917 .
  11. ^ Nuijten, Michèle B.; Hartgerink, Chris H. J.; Van Assen, Marcel A. L. M.; Epskamp, ​​Sacha; Wicherts, Jelte M. (23 octobre 2015). “La prévalence des erreurs de déclaration statistique en psychologie (1985-2013)” . Méthodes de recherche sur le comportement . 48 (4): 1205–1226. est ce que je: 10.3758 / S13428-015-0664-2 . PMC 3101263 . PMID 26497820 .
  12. ^ Bakker, Marjan; Van Dijk, Annette; Wicherts, Jelte M. (7 novembre 2012). “Les règles du jeu appelé Psychological Science”. Perspectives sur les sciences psychologiques . 7 (6): 543–554. est ce que je: 10.1177 / 1745691612459060 . PMID 26168111 . S2cid 19712506 .
  13. ^ Sears, David O. (1986). “Sophomores des collèges en laboratoire: influences d’une base de données étroite sur la vision de la psychologie sociale de la nature humaine”. Journal de la personnalité et de la psychologie sociale . 51 (3): 515–530. est ce que je: 10.1037 / 0022-3514.51.3.515 .
  14. ^ Arnett, Jeffrey J. (1er novembre 2008). “Les 95% négligés pourquoi la psychologie américaine doit devenir moins américaine”. Le psychologue américain . 63 (7): 602–614. est ce que je: 10.1037 / 0003-066x.63.7.602 . PMID 18855491 .
  15. ^ un b Henrich, Joseph; Heine, Steven J.; Norenzayan, Ara (15 juin 2010). “Les gens les plus étranges du monde?” . Sciences comportementales et cérébrales . 33 (2–3): 61–83. est ce que je: 10.1017 / s0140525x0999152x . PMID 20550733 .
  16. ^ un b Puthillaam, Arathy (15 avril 2020). “Problème étrange de la psychologie” . Psychologie aujourd’hui .
  17. ^ un b c Klein, Richard A.; et al. (1er janvier 2014). “Étudier la variation de la réplicabilité: un projet de réplication” de nombreux laboratoires “” (PDF) . La psychologie sociale . 45 (3): 142–152. est ce que je: 10.1027 / 1864-9335 / A000178 .
  18. ^ un b Klein, Richard A.; et al. (24 décembre 2018). “Beaucoup de laboratoires 2: étudier la variation de la réplicabilité entre les échantillons et les paramètres” . Progrès dans les méthodes et les pratiques en sciences psychologiques . d’abord (4): 443–490. est ce que je: 10.1177 / 2515245918810225 . S2cid 125236401 .
  19. ^ un b Ebersole, Charles R .; et al. (Novembre 2016). “Beaucoup de laboratoires 3: évaluer la qualité du pool des participants tout au long du semestre académique via la réplication” . Journal of Experimental Social Psychology . soixante-sept : 68–82. est ce que je: 10.1016/j.jesp.2015.10.012 . S2cid 3859122 .
  20. ^ un b Klein, Richard A.; Cook, Corey L.; Ebersole, Charles R.; VITIELLO, Christine; Nosek, Brian A.; Ahn, Paul; Brady, Abbie J.; Chartier, Christopher R.; Christopherson, Cody D.; Clay, Samuel (2017-01-12). “Beaucoup de laboratoires 4: reproduire la saillance de la mortalité avec et sans implication originale de l’auteur” . Psyarchiv . est ce que je: 10.31234 / osf.io / vef2c .
  21. ^ un b Ebersole, Charles R.; Numéro, Brian A.; Kidwell, Mallory C.; Buttrick, Nick; Baranski, Erica; Chartier, Christopher R.; Mathur, Maya; Campbell, Lorne; Ijzerman, Hans; Lazarevic, Lili (11 décembre 2019). “Beaucoup de laboratoires 5: tester l’examen par les pairs de la collection pré-données comme une intervention pour augmenter la réplicabilité” . Psyarchiv . est ce que je: 10.31234 / osf.io / sxfm2 . HDL: 20.500.11820 / EDFE2964-A638-4341-9191-3016833F1D88 . Récupéré 2020-04-25 .
  22. ^ Howe, Jeff (1er juin 2006). “La montée du crowdsourcing” . Câblé .
  23. ^ Wuchty, S.; Jones, B. F.; Uzzi, B. (18 mai 2007). “La domination croissante des équipes dans la production de connaissances”. Science . 316 (5827): 1036–1039. Bibcode: 2007SCI … 316.1036W . est ce que je: 10.1126 / science.1136099 . PMID 17431139 . S2cid 3208041 .
  24. ^ Merton, R. K. (5 janvier 1968). “L’effet Matthew en science: les systèmes de récompense et de communication de la science sont considérés”. Science . 159 (3810): 56–63. est ce que je: 10.1126 / science.159.3810.56 . PMID 17737466 . S2cid 3526819 .
  25. ^ Petersen, Alexander M.; Jung, woo-sung; Yang, Jae-Suk; Stanley, H. Eugene (2011-01-04). “Démonstration quantitative et empirique de l’effet Matthieu dans une étude de la longévité de carrière” . Actes de l’Académie nationale des sciences . 108 (1): 18–23. arXiv: 0806.1224 . Bibcode: 2011pnas..108 … 18p . est ce que je: 10.1073 / pnas.1016733108 . PMC 3017158 . PMID 21173276 .
  26. ^ Nosek, Brian A.; Spies, Jeffrey R.; Motyl, Matt (6 novembre 2012). “Utopie scientifique: ii. Incitations et pratiques de restructuration pour promouvoir la vérité plutôt que la publication”. Perspectives sur les sciences psychologiques . 7 (6): 615–631. arXiv: 1205.4251 . est ce que je: 10.1177 / 1745691612459058 . PMID 26168121 . S2cid 23602412 .
  27. ^ Ebersole, Charles R.; AXT, Jordan R.; Nosek, Brian A. (12 mai 2016). “La réputation des scientifiques est basée sur le bien, ne pas avoir raison” . Biologie PLOS . 14 (5): E1002460. deux: 10.1371 / journal.pbio.1002460 . PMC 4865149 . PMID 27171138 .
  28. ^ un b Landy, Justin F.; et al. (Mai 2020). “Tests d’hypothèse du crowdsourcing: rendre transparent comment les choix de conception façonnent les résultats de la recherche” (PDF) . Bulletin psychologique . 146 (5): 451–479. est ce que je: 10.1037 / bul0000220 . PMID 31944796 .
  29. ^ Joannidis, John A. A. (30 août 2005). “Pourquoi la plupart des résultats de recherche publiés sont faux” . Médicament PLOS . 2 (8): E124. est ce que je: 10.1371 / journal.pmed.0020124 . PMC 1182327 . PMID 16060722 .
  30. ^ Ball, Philip (26 février 2014). “Crowd-Sourcing: Force in Numbers” . Nature . 506 (7489): 422–423. Bibcode: 2014natur.506..422b . est ce que je: 10.1038 / 506422a . PMID 24572407 . S2cid 4458060 .
  31. ^ Polymath, D. H. J. (2012). “Une nouvelle preuve du théorème de Hales-Jewett de la densité” . Annales de mathématiques . 175 (3): 1283–1327. est ce que je: 10.4007 / annals.2012.175.3.6 . ISSN 0003-486x . Jstor 23234638 . S2cid 60078 .
  32. ^ Castryck, wouter; Fouvry, Étienne; Guerrier, Gregory; Kowalski, Emmanuel; Michel, Philippe; Nelson, Paul; Paldi, Eytan; Pintz, John; Sutherland, Andrew; Tao, Terence; Xie, Xiao-Feng (28 décembre 2014). “Nouvelles estimations de l’équidistribution du type Zhang” . Algèbre et théorie des nombres . 8 (9): 2067-2199. arXiv: 1402.0811 . est ce que je: 10.2140 / on.2014.8.2067 . ISSN 1944-7833 . S2cid 119695637 .
  33. ^ Tao, Terence; Croot, Ernest; Helfgott, Harald (2012). “Méthodes déterministes pour trouver des nombres premiers” . Mathématiques de calcul . 81 (278): 1233–1246. est ce que je: 10.1090 / s0025-5718-2011-02542-1 . ISSN 0025-5718 . Récupéré 24 avril 2020 .
  34. ^ Visscher, Peter; Brown, Matthew; McCarthy, Mark; Yang, Jian (13 janvier 2012). “Cinq ans de découverte de GWAS” . The American Journal of Human Genetics . 90 (1): 7-24. est ce que je: 10.1016 / j.ajhg.2011.11.029 . ISSN 0002-9297 . PMC 3257326 . PMID 22243964 .
  35. ^ Van Berkel, Laura; Crandall, Christian S. (2018). Réplication conceptuelle de l’automaticité de la hiérarchie: méthodes multiples pour tester une hypothèse – Méthodes de recherche SAGE . Récupéré 24 avril 2020 .
  36. ^ Lynch, John G.; Bradlow, Eric T.; Huber, Joel C.; Lehmann, Donald R. (1er décembre 2015). “Réflexions sur le coin de réplication: à la louange des réplications conceptuelles” . Journal international de recherche en marketing . 32 (4): 333–342. est ce que je: 10.1016 / j.ijresmar.2015.09.006 . ISSN 0167-8116 . Récupéré 24 avril 2020 .
  37. ^ “Prolific | Recrutement des participants en ligne pour les enquêtes et les études de marché” . www.prolific.co . Récupéré 2020-04-30 .
  38. ^ BuhrMester, Michael; Kwang, Tracy; Gosling, Samuel D. (2011-01-01). “Mécanique Turc d’Amazon: une nouvelle source de données peu coûteuses, mais de haute qualité?”. Perspectives sur les sciences psychologiques . 6 (1): 3–5. est ce que je: 10.1177 / 1745691610393980 . ISSN 1745-6916 . PMID 26162106 . S2cid 6331667 .
  39. ^ Crone, Damien L.; Williams, Lisa A. (2017). “Les participants au crowdsourcing pour la recherche psychologique en Australie: un test de micro-travailleurs”. Australian Journal of Psychology . 69 (1): 39–47. est ce que je: 10.1111 / ajpy.12110 . ISSN 1742-9536 . S2cid 146389537 .
  40. ^ Stewart, Neil; Chandler, Jesse; Paolacci, Gabriele (1er octobre 2017). “Les échantillons de crowdsourcing en sciences cognitives” . Tendances des sciences cognitives . 21 (10): 736–748. est ce que je: 10.1016 / j.ticcs.2017.06.007 . ISSN 1364-6613 . PMID 28803699 . S2cid 4970624 .
  41. ^ un b c Silber Tooth, R.; et al. (23 août 2018). “De nombreux analystes, un ensemble de données: rendre transparent comment les variations des choix analytiques affectent les résultats” . Progrès dans les méthodes et les pratiques en sciences psychologiques . d’abord (3): 337–356. est ce que je: 10.1177 / 2515245917747646 . ISSN 2515-2459 . S2cid 55306786 .
  42. ^ Carp, Joshua (2012). “Sur la pluralité des mondes (méthodologiques): estimer la flexibilité analytique des expériences IRMf” . Frontières en neurosciences . 6 : 149. doi: 10.3389 / fnins.2012.00149 . ISSN 1662-453X . PMC 3468892 . PMID 23087605 .
  43. ^ Carp, Joshua (15 octobre 2012). “La vie secrète des expériences: méthodes signalant dans la littérature IRMf” . Neuroimage . 63 (1): 289–300. est ce que je: 10.1016 / j.neuroimage.2012.07.004 . ISSN 1053-8119 . PMID 22796459 . S2cid 11070366 . Récupéré 24 avril 2020 .
  44. ^ un b c d C’est F Moshontz, Hannah; Ebersole, Charles R.; Weston, Sara J.; Klein, Richard A. (2019-08-14). “Un guide pour de nombreux auteurs: écrire des manuscrits dans de grandes collaborations” . Psyarchiv . est ce que je: 10.31234 / osf.io / 92xhd . S2cid 233806155 . Récupéré 2020-04-25 .
  45. ^ Sakaluk, John; Williams, Alexander; Biernat, Monica (novembre 2014). “La revue analytique comme une solution à la fausse déclaration des résultats statistiques en science psychologique” . Perspectives sur les sciences psychologiques . 9 (6): 652–660. est ce que je: 10.1177 / 1745691614549257 . ISSN 1745-6916 . PMID 26186115 . S2cid 206778243 .
  46. ^ Nosek, Brian A.; Bar-Anan, Yoav (2012). “Utopie scientifique: I. Ouverture de la communication scientifique”. Enquête psychologique . 23 (3): 217–243. arXiv: 1205.1055 . est ce que je: 10.1080 / 1047840x.2012.692215 . S2cid 6635829 .
  47. ^ Buttliere, Brett T. (2014). “Utiliser la science et la psychologie pour améliorer la diffusion et l’évaluation des travaux scientifiques” . Frontières en neurosciences informatiques . 8 : 82. doi: 10.3389 / fncom.2014.00082 . PMC 4137661 . PMID 25191261 .
  48. ^ Frank, Michael C.; et al. (2017). “Une approche collaborative de la recherche sur les nourrissons: promouvoir la reproductibilité, les meilleures pratiques et la construction de théorie” . Enfance . 22 (4): 421–435. est ce que je: 10.1111 / DEA.12182 . PMC 6879177 . PMID 31772509 .
  49. ^ Le Consortium Manybabies (2020). “Quantification des sources de variabilité de la recherche en enfance en utilisant la préférence de disposition dirigée par le nourrisson” (PDF) . Progrès dans les méthodes et les pratiques en sciences psychologiques . 3 (1): 24–52. est ce que je: 10.1177 / 2515245919900809 . HDL: 21.11116 / 0000-0005-E457-8 . S2cid 204876716 .
  50. ^ Pavlov, Yuri G.; et al. (2021-04-02). “#EEGMANYLABS: Enquêter sur la réplicabilité des expériences EEG influentes” . Cortex . 144 : 213–229. est ce que je: 10.1016 / j.cortex.2021.03.013 . ISSN 0010-9452 . PMID 33965167 . S2cid 232485235 .
  51. ^ un b Grahe, Jon; et al. (2013). “Projet collaboratif des réplications et de l’éducation (CREP)” . OSF. EST CE QUE JE: 10.17605 / osf.io / wfc6u .
  52. ^ Wagge, Jordanie; Baciu, Cristina; Banas, Kasia; Nadler, Joel; Schwarz, Sascha; Weisberg, Yanna; Ijzerman, Hans; Legat, Nicole; Grae, John (2019). “Une démonstration du projet de réplication et d’éducation collaboratif: tentatives de réplication de l’effet de la romance rouge” . Collabra: psychologie . 5 (1): 5. doi: 10.1525 / collabra.177 .
  53. ^ Kupferschmidt, Kai (26 février 2020). «Une culture complètement nouvelle de la recherche. L’épidémie de coronavirus change comment les scientifiques communiquent ” . sciencemag.org . Récupéré 24 avril 2020 .
  54. ^ “Crowdfight Covid-19” . Crowdfightcid19.org . Récupéré 24 avril 2020 .
  55. ^ Kwon, Diana (19 mars 2020). “Des études en temps quasi réel recherchent des mesures comportementales essentielles à l’arrêt du coronavirus” . ScientificAmerican.com . Récupéré 24 avril 2020 .
  56. ^ “Andreas Lieberoth? Sur Twitter:” Merci à tous ceux qui nous aident à faire de #Covidistress Global Survey l’une des plus grandes bases de données sur les expériences humaines de la simulation du coronavirus. Nous ne couvrons cependant pas les problèmes de niveau clinique – mais cette étude le fait! Veuillez les aider à aider les autres ⛑ Lien “/ Twitter” . Twitter . Récupéré 2020-04-25 .
  57. ^ “Dr. Eliza Bliss-Moreau Sur Twitter:” Le @BlissMoreaulab cherche aux participants pour une brève enquête sur les expériences émotionnelles et sociales des gens pendant la pandémie # Covid19 #Coronavirus. S’il vous plaît RT & Partage. Merci! Le lien est ici: lien “/ twitter” . Twitter . Récupéré 2020-04-25 .
  58. ^ “Marine Rougier Sur Twitter:” effectuaient une étude sur les conséquences émotionnelles et comportementales de la distanciation sociale pendant la pandémie du coronavirus. Cela prend 12 minutes (options de langue: anglais, français, allemand et italien bientôt!). RT serait d’une grande aide? Lien “/ twitter” . Twitter . Récupéré 2020-04-25 .
  59. ^ “Jeff Larsen Sur Twitter:” ‘Social Distancing’ n’est pas très amusant. Une équipe de psychologues essaie de trouver de meilleurs termes et nous avons besoin de votre aide. Si vous disposez de 15 minutes pour répondre à notre enquête, veuillez consulter: Lien. Nous avons besoin d’Américains de tous horizons pour participer, alors partagez largement! “/ Twitter” . Twitter . Récupéré 2020-04-25 .
  60. ^ “Michelle Lim Sur Twitter:” Nous faisons une étude sur l’impact de Covid-19 sur nos relations, notre santé et notre bien-être. Lire la suite: lien Link “/ Twitter” . Twitter . Récupéré 2020-04-25 .
  61. ^ “Rhonda Balzarini, PhD sur Twitter:” Twitterverse: nous avons besoin de votre aide! @RelationsScience, @zoppolat et moi lançons une étude révolutionnaire sur les effets de la pandémie # Covid19 sur la façon dont les gens se connectent, se rapportent et font face pendant cette période. Pouvez-vous nous aider à faire passer le mot? Lien s’il vous plaît rt largement! “/ Twitter” . Twitter . Récupéré 2020-04-25 .
  62. ^ Crchartier (13 mars 2020). “Le PSA appelle à des propositions d’étude rapides et percutantes sur Covid-19” . Accélérateur de sciences psychologiques . Récupéré 24 avril 2020 .
  63. ^ un b c Crchartier (21 mars 2020). “Rejoignez le projet Covid-19 à réponse rapide du PSA” . Accélérateur de sciences psychologiques . Récupéré 24 avril 2020 .
  64. ^ “Personnes” . Accélérateur de sciences psychologiques . 24 octobre 2017.
  65. ^ un b c Marque, Amy; Allen, Liz; Altman, Micah; Hlava, Marjorie; Scott, Oui (2015). “Au-delà de la paternité: attribution, contribution, collaboration et crédit” . Édition apprise . 28 (2): 151–155. est ce que je: 10.1087 / 20150211 . ISSN 1741-4857 .
  66. ^ Rennie, Drummond; Yank, Veronica; Emanuel, Linda (20 août 1997). “Lorsque la paternité échoue. Une proposition de rendre les contributeurs responsables” . JAMA: The Journal of the American Medical Association . 278 (7): 579–585. est ce que je: 10.1001 / jama.1097.0355550070071041 . PMID 9268280 .
  67. ^ Jones, Benedict 100.; et al. (2018-05-18). “Dans quelles régions mondiales le modèle de la perception sociale de la valence est-il?” . Psyarchiv . est ce que je: 10.31234 / osf.io / n26dy . HDL: 11577/3365866 . Récupéré 2020-04-25 .
  68. ^ “Crédit – Taxonomie des contributeurs” . Casrai . Récupéré 24 avril 2020 .
  69. ^ un b “Rapports enregistrés” . COS.IO . Récupéré 24 avril 2020 .
  70. ^ Chatard, Armand; Hirschberger, Gilad; Pyszczynski, Tom (2020-02-07). “Un mot de prudence sur de nombreux laboratoires 4: Si vous ne suivez pas votre plan préinscrit, vous pouvez ne pas trouver un réel effet” . Psyarchiv . est ce que je: 10.31234 / osf.io / ejubn . S2cid 236806340 . Récupéré 2020-04-25 .
  71. ^ Brown, Nick (9 mai 2019). “Blog de Nick Brown: une mise à jour sur notre examen de la recherche du Dr Nicolas Guéguen” . Le blog de Nick Brown . Récupéré 24 avril 2020 .
  72. ^ un b c d Tooth argenté, Raphael; Uhlmann, Eric L. (8 octobre 2015). “Recherche de crowdsourcée: de nombreuses mains font un travail serré” . Nouvelles naturelles . 526 (7572): 189–91. Bibcode: 2015Nature.526..189S . est ce que je: 10.1038 / 526189a . PMID 26450041 . S2cid 4444922 .
  73. ^ un b Gilbert, Daniel T.; King, Gary; Pettigrew, Stephen; Wilson, Timothy D. (4 mars 2016). “Commentez” Estimation de la reproductibilité de la science psychologique ” . Science . 351 (6277): 1037. Bibcode: 2016SCI … 351.1037G . est ce que je: 10.1126 / science.aad7243 . ISSN 0036-8075 . PMID 26941311 . S2cid 16687911 .
  74. ^ Stroebe, Wolfgang (2019-03-04). “Que pouvons-nous apprendre de nombreuses réplications de laboratoires?” . Psychologie sociale de base et appliquée . 41 (2): 91–103. est ce que je: 10.1080 / 01973533.201319.1577736 . ISSN 0197-3533 . S2cid 150753165 .

after-content-x4