Datasets
Dans cette étude, nous avons utilisé une approche méta-analytique des études d’IRM fonctionnelle décrites par Yarkoni et al.18 (http://Neurosynth.org). Nous avons téléchargé la base de données Neurosynth qui contenait 3107 cartes fonctionnelles inversées sans seuil et les détails de 11 406 sources de littérature au 25 septembre 2017.
Les données du connectome structurel ont été dérivées de l’ensemble de données d’imagerie pondérée en diffusion de 163 participants acquis à 7 Tesla par l’équipe du projet Connectome humain62 (http://www.humanconnectome.org/study/hcp-young-adult/) (Consortium WU-Minn ; chercheurs principaux : David Van Essen et Kamil Ugurbil ; 1U54MH091657). Ce projet a été financé par les 16 instituts et centres du NIH qui soutiennent le NIH Blueprint for Neuroscience Research, et par le McDonnell Center for Systems Neuroscience de l’université de Washington.
Prétraitement des données Neurosynth
Deux chercheurs (V.R.K. et M.T.S.) ont joué le rôle de juges, sélectionnant les termes qui, selon eux, étaient liés à des processus cognitifs spécifiques. La procédure de sélection s’est déroulée en deux étapes. Au cours de la première étape, les juges ont effectué leur sélection de manière indépendante. Les termes relatifs à l’anatomie du cerveau (par exemple, « réseau de saillance »), à la psychiatrie (par exemple, « schizophrénie ») et à la pathologie (par exemple, « Alzheimer ») ont été systématiquement exclus. Les deux juges se sont mis d’accord sur 422 termes liés aux processus cognitifs ainsi que sur 2309 termes non liés qui devaient être écartés (reproductibilité de 88%). Pour les termes restants, les juges ont pris leur décision ensemble. Au final, 590 termes cognitifs ont été sélectionnés pour l’étude.
Dans la présente analyse, nous avons corrigé les différences anatomiques entre les hémisphères gauche et droit pour nous concentrer sur les asymétries fonctionnelles. Étant donné que les cartes fonctionnelles de Neurosynth sont fournies dans l’espace de gabarit standard de 2 mm du MNI, qui n’est pas symétrique, nous avons co-registré de manière non linéaire le gabarit MNI à un gabarit symétrique du MNI, disponible sur http://www.bic.mni.mcgill.ca/ServicesAtlases/ICBM152NLin2009, en utilisant le pipeline de normalisation difféomorphique symétrique de Greedy (GreedySyN) distribué avec les outils de normalisation avancés (ANTs, http://stnava.github.io/ANTs/)63. Le modèle symétrique a été sous-échantillonné à une taille de voxel de 2 mm pour correspondre aux dimensions de voxel du modèle standard. La transformation estimée entre les espaces MNI non symétriques et symétriques a ensuite été appliquée à toutes les cartes fonctionnelles.
Les étapes suivantes ont été réalisées pour obtenir des indices de latéralisation pour chaque carte fonctionnelle après leur co-enregistrement avec le modèle symétrique. Tout d’abord, nous avons divisé les cartes fonctionnelles en deux parties, l’hémisphère gauche et l’hémisphère droit, et nous avons lissé les cartes résultantes à l’aide d’un filtre gaussien de 6 mm de largeur d’onde. Nous avons ensuite retourné les cartes de l’hémisphère gauche et les avons soustraites des cartes de l’hémisphère droit non retournées afin d’obtenir des cartes d’indices de latéralité (LI) (voir24 pour une approche similaire). Des valeurs positives et négatives dans ces cartes signifieraient une plus grande évidence méta-analytique pour, respectivement, une latéralisation droite et gauche de la fonction associée à un terme.
Prétraitement des données du connectome structurel
Les paramètres de balayage ont été précédemment décrits dans Vu et al.62. En bref, chaque imagerie pondérée en diffusion comprenait un total de 132 tranches quasi axiales acquises avec un facteur d’accélération de 3 (réf. 64), une résolution isotrope (1,05 mm3) et une couverture de toute la tête avec un TE de 71,2 ms et un TR de 7000 ms. À chaque emplacement de tranche, des images pondérées en diffusion ont été acquises avec 65 gradients uniformément distribués dans de multiples coquilles d’espace Q65 et 6 images sans gradient de diffusion appliqué. Cette acquisition a été répétée quatre fois avec une valeur b de 1000 et 2000 s mm-2 par paires avec des directions de codage de phase de gauche à droite et de droite à gauche. Le pipeline de prétraitement HCP par défaut (v3.19.0) a été appliqué aux données66,67. En bref, le champ hors résonance induit par la susceptibilité a été estimé à partir de paires d’images avec gradient de diffusion appliqué avec des distorsions allant dans des directions opposées68 et corrigé pour l’ensemble de l’ensemble de données pondérées en diffusion à l’aide de TOPUP69. Ensuite, le mouvement et la distorsion géométrique ont été corrigés à l’aide de l’outil EDDY tel qu’implémenté dans FSL.
ExploreDTI toolbox pour Matlab (http://www.exploredti.com70,71) a été utilisé pour extraire des estimations de la fraction d’eau axonale28. Ensuite, nous avons écarté les volumes avec une valeur b de 1000 s mm-2 et tractographie déterministe cerveau entier a ensuite été effectuée dans l’espace DWI natif en utilisant le logiciel StarTrack (https://www.mr-startrack.com). Un algorithme de Richardson-Lucy amorti a été appliqué pour les déconvolutions sphériques72. Une réponse fixe des fibres correspondant à un facteur de forme de α = 1,5 × 10-3 mm2 s-1 a été adoptée, couplée au paramètre d’amortissement géométrique de 8. Deux cents itérations de l’algorithme ont été exécutées. Le seuil absolu a été défini comme trois fois la distribution d’orientation des fibres (FOD) sphérique d’un voxel isotrope de matière grise et le seuil relatif comme 8 % de l’amplitude maximale de la FOD73. Un algorithme d’Euler modifié74 a été utilisé pour effectuer la tractographie des lignes de courant du cerveau entier, avec un seuil d’angle de 35°, une taille de pas de 0,5 mm et une longueur minimale de ligne de courant de 15 mm.
Nous avons co-registré les données du connectome structurel dans l’espace standard MNI de 2 mm en utilisant les étapes suivantes : premièrement, la tractographie des lignes de courant du cerveau entier a été convertie en volumes de densité de lignes de courant où les intensités correspondent au nombre de lignes de courant traversant chaque voxel. Ensuite, un modèle spécifique à l’étude de volumes de densité de lignes a été généré à l’aide du pipeline de normalisation difféomorphique symétrique Greedy (GreedySyN) distribué avec les ANT. Cela a permis d’obtenir un modèle moyen des volumes de densité des lignes de courant pour tous les sujets. Le modèle a ensuite été co-registré avec un modèle standard MNI152 de 2 mm à l’aide de l’outil flirt implémenté dans FSL. Cette étape a permis d’obtenir un modèle de densité de lignes dans l’espace MNI152. Troisièmement, les volumes de densité de lignes individuelles ont été enregistrés sur le gabarit de densité de lignes dans l’espace MNI152 et la même transformation a été appliquée à la tractographie de lignes individuelles du cerveau entier en utilisant l’outil trackmath distribué avec le progiciel Tract Querier75, et aux cartes de fraction d’eau axonale, en utilisant ANTs GreedySyn. Cette étape a permis d’obtenir une tractographie linéaire du cerveau entier et des cartes de fractionnement de l’eau axonale dans l’espace standard MNI152.
Détermination des régions fonctionnellement latéralisées
Dans ces analyses, réalisées en deux étapes, nous avons pensé identifier les régions présentant une latéralisation fonctionnelle significative. Voir la figure supplémentaire 5. Dans la première étape, nous avons abordé la redondance tout en préservant la richesse des données de Neurosynth. Par exemple, de nombreux termes sélectionnés étaient liés en tant que formes singulières et plurielles du même mot (par exemple, « forme visuelle » et « formes visuelles ») et leurs cartes sont donc susceptibles d’être très similaires. À cette fin, nous avons réduit la dimensionnalité des données à l’aide d’une analyse en composantes principales (PC) varimax-rotationnelle mise en œuvre dans SPSS (SPSS, Chicago, IL) avec les cartes LI comme entrées76,77,78. Après une analyse en composantes principales standard, impliquant la décomposition des valeurs propres de la matrice de covariance, 171 composantes orthogonales extraites avec des valeurs propres supérieures à la grande moyenne ont été soumises à la procédure de rotation varimax en utilisant le critère de normalisation de Kaiser79, avec un maximum de 1000 itérations pour la convergence. Cette procédure a permis d’expliquer 72,6 % de la variance des données. La distribution des chargements le long des composantes principales varimax-rotation est généralement asymétrique et seuls quelques items reçoivent des chargements importants. Par la suite, pour les besoins de la discussion des résultats, les composantes ont été étiquetées en fonction du ou des termes présentant les chargements les plus importants (tableau supplémentaire 3).
Dans la deuxième étape, une modélisation linéaire générale a été employée pour identifier les voxels présentant une latéralisation significative associée à une composante particulière. Dans cette analyse, les composantes principales ont été utilisées comme un ensemble de prédicteurs pour ajuster les cartes LI et obtenir des cartes bêta, c’est-à-dire des cartes spatiales de composantes. Le test de permutation a été effectué pour identifier les régions significativement latéralisées. Étant donné que la rotation varimax peut imposer certaines corrélations entre les colonnes de la matrice des composantes principales, nous avons effectué des permutations sur les lignes de la matrice non tournée, puis nous avons appliqué la rotation des composantes et calculé une carte aléatoire sur chaque permutation de la même manière que pour les composantes principales réelles. Cette procédure nous a permis d’imiter la structure corrélationnelle des données non permutées et de fournir un test de signification plus robuste. Afin de tenir compte des comparaisons multiples, l’approche statistique maximale a été utilisée, les valeurs des cartes spatiales pour les composantes principales réelles étant comparées à la valeur maximale (positive ou négative) sur une carte aléatoire entière pour chaque permutation. Cinq mille permutations ont été effectuées. Les voxels ont été considérés comme présentant une latéralisation significative s’ils répondaient simultanément à deux critères : (1) les valeurs de leur carte spatiale étaient dans 97,5 % des cas supérieures ou inférieures, respectivement, aux valeurs maximales positives et négatives obtenues par permutation (c’est-à-dire p < 0,05, bilatéral et corrigé par FWE) ; (2) ils formaient un groupe d’au moins 20 voxels. Le second critère a été utilisé pour exclure les effets faibles et éventuellement fallacieux observés dans un petit nombre de voxels.
Intégration multivariée des cartes de latéralisation
Afin de caractériser une structure de faible dimension de la latéralisation cérébrale fonctionnelle, une intégration spectrale des cartes LI a été réalisée en utilisant la décomposition eigend du Laplacien normalisé du graphe de la matrice de similarité80. La méthode a cherché à découvrir des caractéristiques géométriques dans les similarités entre les cartes de latéralisation en convertissant ces similarités en distances entre les cartes de latéralisation dans l’espace intégré (plus la similarité entre les profils de latéralisation est élevée, plus la distance est petite). Nous nous sommes concentrés ici uniquement sur les variances qui ont été prises en compte par les 171 composantes analysées dans la présente étude. À cette fin, les cartes LI ont été « débruitées », c’est-à-dire qu’elles ont été reconstruites comme le produit matriciel de 171 composantes et de leurs cartes spatiales. Chaque élément de la matrice de similarité a été calculé comme un produit scalaire pris pour une paire de cartes LI « débruitées » sur tous les voxels (c’est-à-dire qu’un élément de la matrice de similarité était une somme de produits de valeurs par voxel pour une paire de cartes). Les valeurs négatives ont été réduites à zéro pour permettre l’estimation. Les dimensions d’intégration ont été classées en fonction de leurs valeurs propres, de petites à grandes. La première dimension non informative associée à une valeur propre nulle a été abandonnée. Dans l’analyse, nous avons cherché à déterminer s’il existe une structure dans une représentation à faible dimension des données, en particulier une triangularité structurelle des données, et si c’est le cas, dans combien de dimensions cette structure est préservée (pour le tracé des valeurs propres, voir la figure supplémentaire 6). La structure triangulaire a été quantifiée sous la forme d’un t-ratio, c’est-à-dire un rapport entre l’aire de la coque convexe englobant tous les points de l’espace incorporé et un triangle englobant d’une aire minimale27. Ces valeurs ont été comparées aux t-ratios de cartes aléatoires de LI. Ces cartes aléatoires ont été obtenues en générant 2000 ensembles de 590 cartes aléatoires via la permutation de l’ordre des voxels. Pour chaque ensemble, des cartes aléatoires de LI ont été calculées pour chaque paire, puis soumises à une analyse varimax avec le nombre de composantes principales = 171. La procédure d’incorporation était identique à celle appliquée aux cartes LI non aléatoires. L’étendue dimensionnelle de l’organisation triangulaire a été évaluée en testant si le t-ratio des cartes LI non aléatoires était supérieur aux t-ratios des cartes LI aléatoires dans chaque sous-espace bidimensionnel de l’encastrement (p < 0,05, corrigé par Bonferroni). L’étiquette des axes a été définie ad-hoc en fonction d’un ou de quelques termes situés aux sommets du triangle. Les cartes d’archétypes ont été approximées en utilisant une approche de régression multiple. Nous avons d’abord régressé les valeurs de chaque voxel dans les cartes LI « déboisées » sur les coordonnées des cartes correspondantes dans les 171 premières dimensions de l’espace intégré (c’est-à-dire correspondant au nombre de composantes utilisées pour le « déboisement »). Nous avons ainsi obtenu une estimation de la contribution de chaque dimension intégrée à l’indice de latéralisation. Nous avons ensuite obtenu les cartes d’archétypes en évaluant les coefficients de régression pour les dimensions où la structure triangulaire a été observée aux emplacements estimés des archétypes (c’est-à-dire aux sommets du « simplex » – triangulaire multidimensionnel).
Détermination des régions non latéralisées
Dans les analyses suivantes, nous avons contrasté les profils de connectivité des régions latéralisées avec les régions qui ne montrent pas une latéralisation significative mais qui montrent néanmoins une implication significative au moins dans une fonction. Ces dernières ont été identifiées en répétant les analyses décrites dans la section « Détermination des régions fonctionnellement latéralisées » avec les cartes fonctionnelles originales de Neurosynth comme entrées. Voir la figure supplémentaire 7. Cela a donné 69 composantes, représentant 70,6 % de la variance. Pour une meilleure comparabilité, l’analyse a été effectuée dans l’espace symétrique et pour les hémisphères gauche et droit séparément. Les voxels ont été considérés comme n’ayant pas de latéralisation significative s’ils répondaient aux critères suivants : (1) ils passaient le seuil de signification pour au moins une composante et un hémisphère ; (2) ils n’étaient pas superposés aux voxels latéralisés ; et (3) ils étaient homologues des voxels répondant aux critères (1) et (2) dans l’hémisphère opposé. Dans la suite du texte, nous avons utilisé le terme abrégé de régions « non latéralisées » pour désigner les voxels sans latéralisation significative. Cela fournit un contraste conservateur pour les régions latéralisées car, en vertu de l’approche statistique fréquentiste, les régions non latéralisées incluraient également des voxels démontrant une latéralisation considérable mais ne répondant pas aux critères statistiques de signification utilisés dans l’étude. Le nombre de voxels non latéralisés était 3,6 fois supérieur au nombre de voxels latéralisés.
Mesures de la force de connectivité pour les relations structure-fonction
Les étapes suivantes ont été utilisées pour les relations structure-fonction. Premièrement, nous avons combiné les cartes spatiales des voxels significativement latéralisés, indépendamment de la polarité gauche et droite de la latéralisation. Deuxièmement, nous avons retransformé la carte combinée dans l’espace MNI régulier pour une analyse conjointe avec les informations de diffusion en utilisant un inverse des déformations de modèle MNI non symétrique à MNI symétrique estimées ci-dessus. Enfin, nous avons projeté la carte combinée sur la limite de la substance blanche du modèle MNI non symétrique dans chaque hémisphère et avons ensuite sélectionné la tractographie de ces voxels vers le corps calleux. Les mêmes procédures ont été appliquées aux cartes des régions non latéralisées.
Deux mesures de la force de la connectivité structurelle inter-hémisphérique ont été analysées. La première mesure, microstructurale, se référait à la fraction d’eau axonale, moyennée sur l’ensemble des participants de l’échantillon HCP, dans les voxels du corps calleux qui ont été touchés par des lignes de courant provenant de régions latéralisées (ou non latéralisées) sélectionnées. La deuxième mesure, macrostructurale, de la connectivité, a été définie en termes de réplicabilité des connexions30 entre les voxels du cerveau et le corps calleux, c’est-à-dire comme une proportion de participants chez qui une connexion existe entre les voxels du cerveau et le corps calleux par rapport à la taille globale de l’échantillon HCP. Nous appellerons cette mesure « probabilité de connexion » par souci de concision.
Comparaison de la connectivité entre les régions latéralisées et non latéralisées
La comparaison de la connectivité entre les régions latéralisées et non latéralisées a été effectuée en échantillonnant des sous-ensembles de voxels (sans remplacement) à partir des pools de voxels corticaux latéralisés et non latéralisés. Un échantillon de chaque pool était égal à 5 % du nombre total de voxels de ce pool (c’est-à-dire en s’assurant que la fréquence spatiale des échantillons tirés au sort était égale entre les pools). Pour chaque sous-ensemble, nous avons calculé une valeur moyenne pour la probabilité de connexion et une moyenne pondérée pour la fraction d’eau axonale callosale, où un poids pour un voxel était donné comme une réplicabilité de connexion entre ce voxel et tout voxel dans un sous-ensemble échantillonné. Une valeur négative indiquerait une connectivité plus faible des voxels latéralisés. Les distributions de la différence des mesures de connectivité entre les régions corticales latéralisées et non latéralisées ont été obtenues en répétant la procédure 1000 fois et pour chaque hémisphère séparément.
Analyse de la dominance hémisphérique
Le degré de dominance hémisphérique fonctionnelle a été évalué en radians comme une arctangente du rapport entre les forces d’activation dans deux hémisphères. Pi/4 a été soustrait de cette valeur pour s’assurer que la magnitude absolue de cette valeur augmente si l’activation de la tâche est unilatérale et diminue si les deux hémisphères démontrent des niveaux comparables d’activité de la tâche. Étant donné qu’un chevauchement spatial partiel entre les régions latéralisées associées à différentes composantes est possible, nous avons choisi dans les analyses les valeurs de dominance associées aux composantes qui ont donné le z-score le plus élevé dans un voxel particulier. Afin d’obtenir une estimation robuste de la relation entre la dominance hémisphérique et la force de la connectivité inter-hémisphérique, les voxels ont été classés par probabilités de connexion de telle sorte que la plus petite largeur de bin soit égale à 1/163 et augmente avec la probabilité de connexion (donnée par la fonction logspace dans Matlab). Cette procédure a été utilisée pour compenser partiellement le fait que seul un nombre très limité de voxels avait une forte probabilité de connexion au corps calleux, alors que la majorité était caractérisée par de petites valeurs. Nous avons également estimé l’activité moyenne du voxel entre les hémisphères gauche et droit (c’est-à-dire (activité de l’hémisphère gauche + de l’hémisphère droit)/2) et l’avons utilisée comme covariable de non-intérêt dans les analyses portant sur la relation entre la dominance hémisphérique et les autres mesures.