Théorie
Toute théorie de la nucléation nécessite deux éléments : d’abord, un moyen de calculer les propriétés des amas tels que leur structure et les énergies libres, et ensuite, une description dynamique des fluctuations. La théorie fonctionnelle de la densité classique (cDFT) (21, 22) a longtemps été reconnue comme ayant le potentiel de fournir le premier élément. Depuis les travaux pionniers d’Oxtoby et Evans dans les années 1980 (23), la TDFc a été utilisée pour déterminer la structure et l’énergie des amas critiques pour, d’abord, la nucléation des gouttelettes de liquide à partir d’une vapeur et, plus tard, celle de la cristallisation. Les premiers calculs impliquaient de nombreuses hypothèses simplificatrices, mais des travaux plus récents ont démontré un accord quantitatif avec la simulation (24). L’avantage de la TDFc par rapport à d’autres techniques telles que la théorie des cristaux à champ de phase (PFC) (25) et les modèles d’interface diffuse est qu’elle est, en principe, « ab initio », ne nécessitant qu’un potentiel interatomique comme entrée et qu’elle donne une description quantitativement précise des corrélations et de la structure à l’échelle moléculaire. La cDFT est une théorie fondamentale à partir de laquelle les autres peuvent être comprises comme des approximations (22).
Dans la mise en œuvre de la cDFT utilisée ici, la densité locale de nombre de chaque espèce chimique est discrétisée sur un réseau de calcul cubique, avec un espacement de réseau beaucoup plus petit que les molécules individuelles. Les densités locales d’équilibre sont déterminées en minimisant une fonction des densités locales, donnant à la fois la distribution d’équilibre des molécules et l’énergie libre du système. La théorie décrit correctement les caractéristiques à l’échelle moléculaire telles que le regroupement des fluides denses en couches près d’une paroi. En particulier, alors qu’un fluide homogène a une densité uniforme, un solide est intrinsèquement non uniforme à l’échelle moléculaire car la densité est fortement concentrée sur les sites du réseau et atteint des valeurs très faibles entre eux. Les progrès récents de la TDFc ont étendu son applicabilité à des systèmes hautement non uniformes tels que les gouttelettes de liquide dense et les amas solides en équilibre avec un fond de vapeur de faible densité (voir figure 1).
Le deuxième élément nécessaire pour décrire la nucléation est une description des fluctuations (26). Un cadre naturel pour cela est l’hydrodynamique fluctuante (FH), qui a été initiée par Landau et a été intensivement étudiée et développée. La FH est maintenant un outil largement utilisé qui a été appliqué à une série de sujets tels que la théorie du couplage des modes, la transition vitreuse et la nucléation, et ses fondements en mécanique statistique plus fondamentale ont été établis. Les quantités de base utilisées dans la théorie sont les densités locales variant dans l’espace de chaque espèce ainsi que les champs de vitesse et de température. Pour les grandes particules, telles que les colloïdes ou les macromolécules, dans un bain de particules plus petites (par exemple, de l’eau), une description effective approximative des grandes molécules peut être dérivée dans laquelle l’effet des petites molécules est modélisé comme une combinaison de friction et de force stochastique. Si l’amortissement du bain est fort, on peut encore le réduire à une seule équation décrivant le champ de densité pour les grandes espèces (28, 29) ayant la forme∂∂tn^t(r)=D∇⋅n^t(r)∇δFδn^t(r)+∇⋅2Dn^t(r)ξ^t(r)(1)où n^t(r) est la densité locale fluctuante qui est une quantité hors équilibre : La densité locale de cDFT est la valeur moyenne des fluctuations de celle-ci pour un système à l’équilibre. Le coefficient D est le coefficient de diffusion dans la limite de la faible densité (c’est-à-dire lorsqu’il n’y a qu’une seule grosse molécule dans le bain qui subit un mouvement brownien), qui peut être calculé étant donné les propriétés des molécules qui composent le système. La fonction d’énergie libre F est considérée comme étant la fonction de Helmholtz de la TDFc. Au niveau de l’hydrodynamique (avant de supposer la limite suramortie), celle-ci est plus généralement liée au gradient de la pression dans les équations FH, et son utilisation est une sorte d’approximation d’équilibre local commune en mécanique statistique sans équilibre (26). Enfin, ξ^t(r) est le bruit blanc local (avec des corrélations de fonction delta dans l’espace et le temps) provenant des petites molécules du bain qui entrent en collision avec les grosses molécules et est à l’origine des fluctuations du modèle. Une propriété importante de ce modèle est qu’il conserve le nombre de particules à tout moment, sauf éventuellement aux frontières du système. Ici, je me concentre sur ce modèle simple, mais réaliste, et je laisse les développements similaires sous des hypothèses moins restrictives à des travaux futurs.
L’utilisation des fonctionnelles d’énergie libre cDFT dans les modèles stochastiques a été remise en question (30) parce que ce qui se produit dans les dérivations typiques des modèles stochastiques est une énergie libre à gros grain et non la fonctionnelle cDFT d’équilibre. La différence est due aux fluctuations représentées explicitement dans le modèle stochastique par la force fluctuante, et l’on s’attend à ce que la fonction cDFT résulte d’une moyenne de fluctuation de la fonction à gros grain. Ici, comme dans presque toutes les applications, la fonction d’énergie libre est considérée comme la somme d’une fonction sophistiquée de sphère dure et d’un traitement de champ moyen de la queue attractive du potentiel (22). Pour les contributions de la sphère dure, on peut s’attendre à ce qu’une telle moyenne ait peu d’effet car toutes les corrélations sont à courte portée. Pour les systèmes avec des queues attractives à longue portée, on peut s’attendre à ce que la description du champ moyen utilisée ici et dans toutes les applications similaires soit plus justifiable pour les modèles à gros grains que pour le modèle à moyenne de fluctuation, car cette moyenne est précisément l’origine physique des effets de renormalisation qui invalident la description du champ moyen, par exemple, dans les phénomènes critiques. Par conséquent, la combinaison d’une fonctionnelle d’énergie libre de sphère dure cDFT et d’une queue attractive de champ moyen pourrait être argumentée pour être une bonne estimation d’une énergie libre à gros grain et une mauvaise estimation d’une fonctionnelle cDFT, plutôt que l’inverse.
Il serait possible de sélectionner une des fonctionnelles du modèle cDFT pour l’utiliser dans le modèle stochastique et d’effectuer des simulations numériques directes. Cette approche a été récemment exploitée et constitue une méthode de simulation à gros grain prometteuse pour étudier la nucléation (31). Une autre possibilité est d’approfondir le grain grossier par l’introduction de variables collectives ou de paramètres d’ordre. Cette voie a été explorée dans d’autres endroits, où il a été montré que l’on peut récupérer la théorie de la nucléation classique (CNT) avec des approximations appropriées (26, 32). Ainsi, la théorie discutée ici n’est pas une alternative à la CNT mais plutôt une théorie plus fondamentale pour laquelle la CNT est une approximation. Ici, cependant, le but est de poursuivre le développement théorique en utilisant les outils de la théorie des processus stochastiques et de se concentrer sur la voie de nucléation comme objet fondamental.
Si un système commence comme une solution faible (c’est-à-dire un état semblable à la vapeur) et nucléise spontanément un cluster (soit une gouttelette de solution dense, soit un cluster cristallin), alors la concentration locale initiale est constante dans tout le système. Lorsque l’amas est présent, la concentration est élevée à l’intérieur de la gouttelette et faible à l’extérieur : La différence entre ces états peut être caractérisée entièrement en termes de densité locale. Pour les modèles stochastiques tels que celui utilisé ici, il est possible de donner une expression exacte de la probabilité de suivre un chemin donné depuis une certaine distribution de densité initiale, n0(r), jusqu’à une distribution finale donnée, nT(r), et en recherchant le chemin avec la probabilité maximale, on peut déterminer le chemin le plus probable (MLP) qui caractérise la transition. L’idée de base remonte à Onsager et Machlup (33), et la généralisation aux processus diffusifs arbitraires a été donnée par Graham (34). Si l’état initial est la phase mère uniforme et que l’état final comprend l’amas critique (ou post-critique) de la nouvelle phase, alors la MLP sera la voie de nucléation la plus probable. En général, la détermination de la MLP est hautement non triviale, mais des simplifications importantes ont lieu dans la limite de bruit faible (correspondant physiquement, par exemple, à des températures plus basses), auquel cas la théorie stochastique est équivalente à la théorie des grandes déviations de Wentzell-Freidlin (35). Ensuite, on peut prouver (26) que la MLP pour la nucléation doit passer par l’amas critique – un fait qui n’est généralement pas vrai dans la limite du bruit fort et qui montre que l’image habituelle de la nucléation ne s’applique que dans cette limite. En outre, on peut montrer que la MLP peut être construite en commençant par l’amas critique et en perturbant légèrement le système dans les directions instables de sorte que la partie déterministe de la dynamique∂∂tn^t(r)=D∇⋅n^t(r)∇δFδn^t(r)(2)entraîne la chute de la densité le long du gradient d’énergie libre vers la phase initiale ou la phase finale, selon la direction de la perturbation. En assemblant ces deux chemins partiels, on obtient la MLP complète. Notez cependant qu’ils ont deux caractères très différents : En réalité, le système commence dans la phase initiale et est ensuite entraîné par les fluctuations jusqu’à la barrière d’énergie libre jusqu’à ce qu’il atteigne le cluster critique, après quoi il continue ensuite à croître jusqu’à ce qu’autant de matière que possible soit incorporée dans la nouvelle phase. La deuxième partie, qui commence à l’amas critique et croît, n’est qu’une croissance thermodynamique normale entraînée par le gradient d’énergie libre. La première partie, cependant, est conduite contre le gradient d’énergie libre par des fluctuations et c’est un résultat hautement non trivial et utile que le MLP pour ce processus peut être déterminé en descendant « à reculons » le gradient (26).
Plutôt que d’utiliser directement la descente du gradient, c’est-à-dire l’équation 2, à partir des amas critiques, le présent travail fait usage de la méthode de la corde (36), qui est mathématiquement équivalente mais offre des avantages d’efficacité et de simplicité. En particulier, elle détermine l’ensemble du chemin en une seule fois et est particulièrement utile lorsqu’il y a plusieurs minima intermédiaires d’énergie libre ou lorsque les gradients d’énergie libre sont faibles, deux situations qui s’avèrent pertinentes ci-dessous. Les détails de l’implémentation sont discutés dans le texte supplémentaire, et ici, il est seulement noté que, dans la méthode de la chaîne, on travaille avec une collection de densités, ou « images », distribuées tout au long du chemin, l’approchant ainsi comme une collection de points discrets. En les déplaçant selon l’équation 2, tout en maintenant un espacement égal entre les points, on détermine le chemin de descente par gradient. La méthode nécessite une estimation initiale de la trajectoire, et pour cela, une simple interpolation linéaire entre les points d’extrémité a été utilisée. Dans les présents calculs, le point de départ, c’est-à-dire l’image initiale, est le système uniforme à faible densité, et le point final du chemin est l’amas critique. Les calculs révèlent comment le système évolue du premier au second.
Il convient de mentionner que les éléments individuels de cette théorie ont été discutés précédemment dans des contextes similaires. Par exemple, dans l’étude de Lutsko (24), la méthode très similaire des bandes élastiques nudgées a été utilisée avec la fonctionnelle d’énergie libre cDFT de pointe pour décrire la nucléation liquide-liquide. Cependant, dans ce travail, l’importance de l’introduction d’une description dynamique réaliste n’a pas été comprise. De même, les études de champ de phase telles que celles de Qiu et Qian (37) et de Backofen et Voigt (38, 39) utilisent des fonctions d’énergie libre plus simples et une dynamique ad hoc avec la méthode des cordes. Bien que les amas critiques soient correctement déterminés, la physicalité des chemins n’est pas claire en raison de la nature abstraite de la dynamique (par exemple, l’absence de conservation locale de la masse lorsque le paramètre d’ordre doit être interprété comme la densité). En outre, les effets de volume exclus, qui dominent la structure au niveau moléculaire, sont en dehors du domaine de ces modèles. Le présent travail utilise le modèle sophistiqué de la théorie de la mesure fondamentale pour la contribution de la sphère dure à la fonctionnelle d’énergie libre, qui est bien connu pour donner une description très précise des systèmes de sphères dures en particulier et, lorsqu’il est combiné avec un modèle de champ moyen pour la partie attractive du potentiel, de la structure à l’échelle moléculaire pour des potentiels plus généraux (22).
Des approches de la cristallisation très proches dans l’esprit de celle présentée ici ont également été explorées pendant un certain temps dans la communauté PFC (25). Elles peuvent être comprises comme des modèles cDFT qui sont simplifiés par l’expansion de la fonctionnelle d’énergie libre F autour d’un état uniforme, n0, résultant en deux types de termes (41, 42). Le premier ensemble de termes prend la forme d’une expansion de gradient, qui est tronquée au quatrième ordre. Le second ensemble de termes prend la forme d’une expansion dans la variable φ(r) ≡ (n(r) – n0)/n0, bien que cette expansion soit parfois évitée (43). Les deux expansions ne sont pas contrôlées à l’état solide, où des variations de la densité de plusieurs ordres de grandeur se produisent sur les plus petites échelles de longueur moléculaire, et pour cette raison, les modèles PFC ne peuvent généralement pas être paramétrés à un potentiel d’interaction particulier. Le potentiel effectif qui les sous-tend est plutôt déterminé par les approximations utilisées et peut être très peu conventionnel. Cette fonctionnelle d’énergie libre simplifiée a été couplée à la dynamique dans de nombreuses études, y compris certaines dans lesquelles la combinaison est très similaire à celle utilisée ici (45), comme base pour le grainage grossier de la propagation des fronts de cristallisation en deux dimensions (43) et de la nucléation (44-46). Le but du présent travail est de surmonter les limites de ces modèles simplifiés tout en se concentrant sur la voie de la nucléation via le concept du MLP.