AI réinvente la façon dont nous inventons


Le bureau de Regina Barzilay au MIT offre une vue dégagée sur les instituts de recherche biomédicale de Novartis. Le groupe de découverte de médicaments d’Amgen se situe quelques blocs plus loin. Jusque récemment, Barzilay, l'un des principaux chercheurs en intelligence artificielle dans le monde, n'avait pas beaucoup réfléchi à ces bâtiments voisins, remplis de chimistes et de biologistes. Mais alors que l'IA et l'apprentissage automatique commençaient à accomplir des exploits de plus en plus impressionnants en matière de reconnaissance d'images et de compréhension du langage, elle commença à se demander: cela pourrait-il aussi transformer la tâche de recherche de nouveaux médicaments?

Le problème est que les chercheurs humains ne peuvent explorer qu'une infime partie de ce qui est possible. On estime qu'il y a jusqu'à 1060 molécules potentiellement médicamenteuses – plus que le nombre d'atomes dans le système solaire. Mais l’apprentissage automatique est bon pour parcourir des possibilités apparemment illimitées. Formés sur de grandes bases de données de molécules existantes et de leurs propriétés, les programmes peuvent explorer toutes les molécules associées possibles.

La découverte de médicaments est un processus extrêmement coûteux et souvent frustrant. Les chimistes en médecine doivent deviner quels composés pourraient constituer de bons médicaments, en utilisant leurs connaissances sur l’effet de la structure d’une molécule sur ses propriétés. Ils synthétisent et testent d'innombrables variantes, et la plupart sont des échecs. «Trouver de nouvelles molécules est encore un art, car vous avez un si grand espace de possibilités», dit Barzilay. "Il faut beaucoup de temps pour trouver de bons candidats-médicaments."

En accélérant cette étape cruciale, l’apprentissage en profondeur pourrait offrir aux chimistes davantage d’occasions de poursuivre et rendre la découverte de médicaments beaucoup plus rapide. Un avantage: l’apprentissage automatique fait souvent l’objet d’une imagination excentrique. "Peut-être que cela ira dans une direction différente dans laquelle un humain ne voudrait pas aller", a déclaré Angel Guzman-Perez, chercheur en toxicomanie chez Amgen et travaillant avec Barzilay. "Il pense différemment."

D'autres utilisent l'apprentissage machine pour essayer d'inventer de nouveaux matériaux pour des applications de technologies propres. Parmi les articles de la liste de souhaits figurent des batteries améliorées pour stocker l’énergie sur le réseau électrique et des cellules solaires organiques, qui pourraient coûter beaucoup moins cher à fabriquer que les batteries encombrantes au silicium actuelles.

De telles percées sont devenues plus difficiles et plus coûteuses à réaliser à mesure que la chimie, la science des matériaux et la découverte de médicaments devenaient incroyablement complexes et saturées de données. Même si les industries pharmaceutique et biotechnologique investissent de l'argent dans la recherche, le nombre de nouveaux médicaments basés sur de nouvelles molécules a été stable au cours des dernières décennies. Et nous sommes toujours aux prises avec des batteries lithium-ion datant du début des années 90 et des conceptions de cellules solaires au silicium datant également de plusieurs décennies.

La complexité qui a ralenti les progrès dans ces domaines est l’excellence du savoir en profondeur. Chercher dans des espaces multidimensionnels pour faire des prédictions valables est «le point de mire de l’IA», déclare Ajay Agrawal, économiste à la Rotman School of Management de Toronto et auteur du best-seller Machines de prévision: l'économie simple de l'intelligence artificielle.

Dans un article récent, des économistes du MIT, de Harvard et de l’Université de Boston ont fait valoir que l’impact économique le plus important d’Amnesty International pourrait provenir de son potentiel en tant que nouvelle «méthode d’invention» qui redéfinit en définitive «la nature du processus d’innovation et l’organisation de la R & D».

Iain Cockburn, économiste de la BU et co-auteur du document, déclare: «Les nouvelles méthodes d’invention aux applications étendues ne sont pas utilisées très souvent et, si notre hypothèse est bonne, l’IA pourrait considérablement modifier le coût de la R & D dans de nombreux domaines différents. . ”Une grande partie de l’innovation implique de faire des prédictions basées sur des données. Cockburn ajoute: «Dans de telles tâches,« l'apprentissage par la machine pourrait être beaucoup plus rapide et moins coûteux, par ordre de grandeur ».

En d’autres termes, le principal héritage d’Amnesty International n’est peut-être pas les voitures sans conducteur ni la recherche d’image, ni même la capacité d’Alexa à prendre des commandes, mais bien sa capacité à proposer de nouvelles idées pour alimenter l’innovation elle-même.

Les idées deviennent chères

À la fin de l’année dernière, Paul Romer a remporté le prix Nobel d’économie pour ses travaux réalisés à la fin des années 80 et au début des années 90, qui montraient que les investissements dans les nouvelles idées et l’innovation favorisaient une croissance économique robuste. Les économistes précédents avaient noté le lien entre l'innovation et la croissance, mais Romer a fourni une explication exquise pour expliquer son fonctionnement. Au cours des décennies qui ont suivi, les conclusions de Romer ont été une source d’inspiration intellectuelle pour de nombreux habitants de la Silicon Valley et ont contribué à expliquer comment elle a atteint une telle richesse.

Mais que se passe-t-il si notre portefeuille de nouvelles idées se tarit? Les économistes Nicholas Bloom et Chad Jones de Stanford, Michael Webb, étudiant de troisième cycle à l’université, et John Van Reenen du MIT ont examiné le problème dans un article récent intitulé «Les idées sont-elles de plus en plus difficiles à trouver?» (Leur réponse était «Oui. ”) En ce qui concerne la découverte de médicaments, la recherche sur les semi-conducteurs, l’innovation médicale et les efforts visant à améliorer les rendements des cultures, les économistes ont trouvé une histoire commune: les investissements dans la recherche augmentent fortement, mais les gains restent constants.

Du point de vue d’un économiste, c’est un problème de productivité: nous payons plus pour un volume de production similaire. Et les chiffres semblent mauvais. La productivité de la recherche – le nombre de chercheurs nécessaires pour obtenir un résultat donné – diminue d'environ 6,8% par an pour étendre la loi de Moore, ce qui suppose que nous trouvions le moyen de conditionner des composants toujours plus nombreux et plus petits sur une puce à semi-conducteur afin de: continue à faire des ordinateurs plus rapides et plus puissants. Ils ont découvert que la densité de copeaux était au moins 18 fois plus importante qu'au début des années 70. Pour améliorer les semences, mesuré par le rendement des cultures, la productivité de la recherche diminue d'environ 5% par an. Pour l’ensemble de l’économie américaine, il recule de 5,3%.

Le prix croissant des grandes idées

Selon les économistes de Stanford et du MIT, il faut plus de chercheurs et d'argent pour trouver de nouvelles idées productives. C’est un facteur probable de la faible croissance globale enregistrée aux États-Unis et en Europe au cours des dernières décennies. Le graphique ci-dessous illustre l'évolution de l'économie dans son ensemble, en mettant en évidence la productivité totale des facteurs aux États-Unis (en moyenne sur dix ans et pour la période 2000-2014) – une mesure de la contribution de l'innovation – par rapport au nombre de chercheurs. Des modèles similaires valent pour des domaines de recherche spécifiques.

source: bloom, jones, van reenen et webb

Jusqu'à présent, tout effet négatif de cette baisse a été compensé par le fait que nous investissons plus d'argent et de personnes dans la recherche. Nous doublons donc toujours le nombre de transistors sur une puce tous les deux ans, mais uniquement parce que nous consacrons beaucoup plus de personnes au problème. Nous devrons doubler nos investissements en recherche et développement au cours des 13 prochaines années, rien que pour continuer à marcher.

Il se peut, bien sûr, que des domaines tels que la phytotechnie et la recherche sur les semi-conducteurs vieillissent et que les possibilités d’innovation se réduisent. Cependant, les chercheurs ont également constaté que la croissance globale liée à l'innovation dans l'économie était lente. Tous les investissements dans de nouveaux domaines et les inventions qu’ils ont générées n’ont pas permis de changer la donne.

La baisse de la productivité de la recherche semble être une tendance qui dure depuis plusieurs décennies. Mais cela préoccupe particulièrement les économistes, car nous assistons à un ralentissement général de la croissance économique depuis le milieu des années 2000. À une époque de brillantes nouvelles technologies telles que les smartphones, les voitures sans conducteur et Facebook, la croissance est lente et la part de celle-ci attribuée à l'innovation – appelée productivité totale des facteurs – a été particulièrement faible.

Les effets persistants de l'effondrement financier de 2008 pourraient être un frein à la croissance, estime Van Reenen, de même qu'une incertitude politique persistante. Mais la médiocrité de la recherche est sans aucun doute un facteur contributif. Et il dit que si le déclin continuait, cela pourrait nuire gravement à la prospérité et à la croissance futures.

Il est logique que nous ayons déjà choisi une grande partie de ce que certains économistes aiment appeler le «fruit à portée de main» en termes d’inventions. Se pourrait-il que le seul fruit qui reste soit quelques pommes ratatinées sur les branches les plus éloignées de l'arbre? Robert Gordon, économiste à la Northwestern University, a été un ardent défenseur de ce point de vue. Il dit que nous sommes peu susceptibles de rivaliser avec les découvertes florissantes qui ont marqué la fin du 19e et le début du 20e siècle, lorsque des inventions telles que la lumière et le courant électriques et le moteur à combustion interne ont conduit à un siècle de prospérité sans précédent.

Si Gordon a raison et qu’il reste moins d’inventions majeures, nous sommes condamnés à un avenir économique sombre. Mais peu d’économistes pensent que c’est le cas. Plutôt, il est logique que de grandes nouvelles idées existent; il devient de plus en plus coûteux de les trouver à mesure que la science devient de plus en plus complexe. Les chances que la prochaine pénicilline tombe juste dans nos genoux sont minces. Il faudra de plus en plus de chercheurs pour comprendre les avancées scientifiques dans des domaines tels que la chimie et la biologie.

C’est ce que Ben Jones, économiste chez Northwestern, appelle «le fardeau du savoir». Les chercheurs deviennent de plus en plus spécialisés, ce qui oblige à constituer des équipes plus importantes et plus onéreuses pour résoudre les problèmes. Les recherches de Jones montrent que l'âge auquel les scientifiques atteignent leur productivité maximale augmente: il leur faut plus de temps pour acquérir l'expertise dont ils ont besoin. «C’est un sous-produit inné de la croissance exponentielle des connaissances», dit-il.

"Beaucoup de gens me disent que nos résultats sont déprimants, mais je ne le vois pas de cette façon", déclare Van Reenen. L'innovation pourrait être plus difficile et coûteuse, mais cela, dit-il, ne fait que souligner la nécessité de politiques, y compris d'incitations fiscales, qui encourageront les investissements dans davantage de recherche.

«Tant que vous investissez des ressources dans la R & D, vous pouvez maintenir une croissance saine de votre productivité», déclare Van Reenen. «Mais nous devons être prêts à dépenser de l'argent pour le faire. Ce n’est pas gratuit.

Abandonner la science

L’intelligence artificielle peut-elle résoudre de manière créative le type de problèmes que requiert une telle innovation? Certains experts en sont maintenant convaincus, étant donné le type d’avancements démontrés par la machine de jeu AlphaGo.

AlphaGo a maîtrisé le jeu ancien de Go, battant le champion en titre, en étudiant les mouvements presque illimités possibles dans un jeu joué depuis plusieurs millénaires par des humains s'appuyant fortement sur l'intuition. Ce faisant, il a parfois proposé des stratégies gagnantes qu'aucun joueur humain n'avait pensé à essayer. De même, les programmes d’apprentissage en profondeur formés à partir de grandes quantités de données expérimentales et la littérature chimique pourraient proposer de nouveaux composés que les scientifiques n’ont jamais imaginés.

Une avancée similaire à AlphaGo pourrait-elle aider les armées de chercheurs en croissance à se pencher sur des données scientifiques en expansion constante? L'intelligence artificielle pourrait-elle rendre la recherche fondamentale plus rapide et plus productive, en redynamisant des domaines devenus trop coûteux pour les entreprises?

Au cours des dernières décennies, nos efforts de R & D ont été bouleversés. Depuis l'époque où les Bell Labs d'AT & T et le PARC de Xerox ont mis au point des inventions révolutionnaires telles que les transistors, les cellules solaires et l'impression laser, la plupart des grandes entreprises américaines et d'autres économies riches ont abandonné la recherche fondamentale. Entre-temps, les investissements fédéraux américains dans la RD ont été stables, en particulier dans les domaines autres que les sciences de la vie. Ainsi, alors que nous continuons à augmenter le nombre de chercheurs dans son ensemble et à transformer des progrès incrémentiels en opportunités commerciales, les domaines qui nécessitent une recherche à long terme et une formation de base en science fondamentale en ont pris un coup.

L'invention de nouveaux matériaux en particulier est devenue un marigot commercial. Cela a freiné les innovations nécessaires dans les technologies propres, telles que de meilleures batteries, des cellules solaires plus efficaces et des catalyseurs permettant de fabriquer des carburants directement à partir de la lumière du soleil et du dioxyde de carbone (pensez à la photosynthèse artificielle). Alors que les prix des panneaux solaires et des batteries baissent régulièrement, c’est en grande partie à cause des améliorations de la fabrication et des économies d’échelle, plutôt que des avancées fondamentales des technologies elles-mêmes.

Tonio Buonassisi, ingénieur en mécanique au MIT qui travaille avec une équipe de scientifiques à Singapour pour accélérer le processus, a besoin de 15 à 20 ans en moyenne pour trouver un nouveau matériau. C’est beaucoup trop long pour la plupart des entreprises. Cela n’est pas pratique, même pour de nombreux groupes académiques. Qui veut passer des années sur un matériau qui peut ou non fonctionner? C'est la raison pour laquelle les startups adossées à des entreprises, qui sont à l'origine de nombreuses innovations en matière de logiciels, voire de biotechnologie, ont longtemps abandonné les technologies propres: les investisseurs en capital de risque ont généralement besoin d'un retour dans les sept ans ou plus tôt.

«Une accélération 10x (dans la vitesse de découverte des matériaux) est non seulement possible, mais nécessaire», déclare Buonassisi, qui dirige un laboratoire de recherche en photovoltaïque au MIT. Son objectif, ainsi que celui d'un réseau de collègues scientifiques mal connectés, est de faire appel à l'IA et à l'apprentissage automatique pour réduire ce délai de 15 à 20 ans à environ deux à cinq ans en s'attaquant aux différents goulots d'étranglement du laboratoire, en automatisant autant que possible du processus. Un processus plus rapide donne aux scientifiques beaucoup plus de solutions potentielles à tester, leur permet de trouver des impasses en quelques heures plutôt que plusieurs mois, et contribue à optimiser les matériaux. «Cela transforme notre façon de penser en tant que chercheurs», dit-il.

Cela pourrait également faire de la découverte de matériaux une activité viable, une fois de plus. Buonassisi pointe un graphique indiquant le temps qu'il a fallu pour développer différentes technologies. Une des colonnes intitulée «batteries lithium-ion» indique 20 ans.

Une autre colonne, beaucoup plus courte, porte la mention «nouvelle cellule solaire»; L’objectif «climat pour 2030» figure en haut de la liste. Le constat est clair: nous ne pouvons pas attendre encore 20 ans avant la prochaine avancée dans le domaine des matériaux pour technologies propres.

Startups d'IA dans les médicaments et le matériel

1
Atomwise
2
Kebotix
3
Génomique Profonde
Ce qu'ils font Utilisez les réseaux de neurones pour parcourir de grandes bases de données afin de trouver de petites molécules ressemblant à des médicaments qui se lient à des protéines ciblées. Développez une combinaison de robotique et d'intelligence artificielle pour accélérer la découverte et le développement de nouveaux matériaux et produits chimiques. Utilisez l'intelligence artificielle pour rechercher des molécules d'oligonucléotides dans le traitement de maladies génétiques.
Pourquoi c'est important Identifier de telles molécules avec des propriétés souhaitables, telles que la puissance, est une première étape cruciale dans la découverte de médicaments.

Il faut plus d'une décennie pour développer un matériau. Réduire ce délai pourrait nous aider à résoudre des problèmes tels que le changement climatique.

Les traitements aux oligonucléotides sont prometteurs contre diverses maladies, notamment les troubles neurodégénératifs et métaboliques.

Le laboratoire dirigé par l'IA

«Viens dans un pays libre»: c'est ainsi qu'Alán Aspuru-Guzik invite un visiteur américain dans son laboratoire de Toronto ces jours-ci. En 2018, Aspuru-Guzik quitte son poste de professeur de chimie à Harvard et s'installe au Canada avec sa famille. Sa décision était motivée par un fort dégoût du président Donald Trump et de ses politiques, en particulier en matière d'immigration. Cependant, Toronto n’est pas dérangée pour devenir une Mecque de la recherche sur l’intelligence artificielle.

En plus d'être professeur de chimie à l'Université de Toronto, Aspuru-Guzik occupe également un poste au Vector Institute for Artificial Intelligence. C’est le centre de l’IA co-fondé par Geoffrey Hinton, dont les travaux novateurs sur l’apprentissage en profondeur et les réseaux de neurones ont largement contribué à ce que le boom de l’IA se soit accéléré.

Dans un article remarquable de 2012, Hinton et ses coauteurs ont démontré qu'un réseau de neurones profonds, formé à partir d'un très grand nombre d'images, pouvait identifier un champignon, un léopard et un chien dalmatien. C'était une percée remarquable à l'époque, et cela a rapidement introduit une révolution de l'IA utilisant des algorithmes d'apprentissage en profondeur pour donner un sens aux grands ensembles de données.

Les chercheurs ont rapidement trouvé le moyen d'utiliser ces réseaux de neurones pour aider les voitures sans conducteur à naviguer et à repérer les visages dans une foule. D'autres ont modifié les outils d'apprentissage en profondeur afin de pouvoir se former eux-mêmes; parmi ces outils, on trouve les GAN (réseaux accusatoires génératifs), qui peuvent fabriquer des images de scènes et de personnages qui n'ont jamais existé.

Dans un article de suivi publié en 2015, Hinton a indiqué que l'apprentissage en profondeur pouvait être utilisé dans la recherche en chimie et dans les matériaux. Son article vantait la capacité du réseau de neurones à découvrir «des structures complexes dans des données de grande dimension» – autrement dit, les mêmes réseaux qui peuvent naviguer dans des millions d'images pour trouver, par exemple, un chien avec des taches pourrait trier des millions de molécules pour identifier un avec certaines propriétés souhaitables.

Énergique et débordant d'idées, Aspuru-Guzik n'est pas le genre de scientifique à passer patiemment pendant deux décennies à déterminer si un matériau fonctionnera ou non. Et il a rapidement adapté l'apprentissage en profondeur et les réseaux de neurones pour tenter de réinventer la découverte de matériaux. L'idée est d'intégrer l'intelligence artificielle et l'automatisation à toutes les étapes de la recherche sur les matériaux: la conception et la synthèse initiales d'un matériau, ses tests et analyses, et enfin les multiples raffinements qui optimisent ses performances.

Par un jour glacial, début janvier, Aspuru-Guzik a bien serré son chapeau sur ses oreilles, mais il semble au contraire inconscient du climat canadien. Il a d'autres choses en tête. D'une part, il attend toujours la livraison d'un robot de 1,2 million de dollars, désormais livré sur un navire de la Suisse, qui sera la pièce maîtresse du laboratoire automatisé, dirigé par l'IA, qu'il a envisagé.

Au laboratoire, des outils d'apprentissage en profondeur, tels que les GAN et leur cousin, une technique appelée autoencoder, vont imaginer de nouveaux matériaux prometteurs et déterminer comment les fabriquer. Le robot fabriquera alors les composés; Aspuru-Guzik souhaite créer un système automatisé abordable, capable de générer de nouvelles molécules à la demande. Une fois que les matériaux ont été fabriqués, ils peuvent être analysés avec des instruments tels qu'un spectromètre de masse. Des outils d’apprentissage automatique supplémentaires donneront un sens à ces données et «diagnostiqueront» les propriétés du matériau. Ces informations seront ensuite utilisées pour optimiser davantage les matériaux, en peaufinant leurs structures. Et puis, Aspuru-Guzik dit, "AI va sélectionner la prochaine expérience à faire, boucler la boucle."

Une fois le robot en place, Aspuru-Guzik espère créer quelque 48 nouveaux matériaux tous les deux jours, en s’appuyant sur les informations tirées de l’apprentissage automatique pour améliorer sans cesse leurs structures. C’est un nouveau matériau prometteur toutes les heures, un rythme sans précédent qui pourrait complètement transformer la productivité du laboratoire.

Il ne s’agit pas uniquement de créer «un matériau magique», dit-il. Pour vraiment changer la recherche sur les matériaux, vous devez vous attaquer à l'ensemble du processus: «Quels sont les goulots d'étranglement? Vous voulez une IA dans chaque partie du laboratoire. »Une fois que vous avez proposé la structure, par exemple, vous devez encore trouver le moyen de la fabriquer. Cela peut prendre des semaines, voire des mois, pour résoudre ce que les chimistes appellent la «rétrosynthèse», c'est-à-dire revenir en arrière à partir d'une structure moléculaire pour déterminer les étapes nécessaires à la synthèse d'un tel composé. Un autre goulot d'étranglement vient à la compréhension de la profusion de données produites par les équipements d'analyse. L'apprentissage automatique pourrait accélérer chacune de ces étapes.

Aspuru-Guzik est motivé par la menace du changement climatique, la nécessité d’améliorer les technologies propres et le rôle essentiel des matériaux dans la production de telles avancées. Ses propres recherches portent sur de nouveaux électrolytes organiques pour les batteries à flux, qui peuvent être utilisés pour stocker l’excès d’électricité provenant des réseaux électriques et le réinjecter au besoin, ainsi que sur des cellules solaires organiques beaucoup moins chères que celles à base de silicium. Mais si sa conception d'un laboratoire chimique automatisé autonome fonctionne, suggère-t-il, cela pourrait rendre la chimie beaucoup plus accessible à presque tout le monde. Il appelle cela la «démocratisation de la découverte de matériaux».

"C'est là que se passe l'action", dit-il. "Les IA qui conduisent des voitures, les AI qui améliorent les diagnostics médicaux, les AI pour les achats personnels – la croissance économique des IA appliquée à la recherche scientifique peut atténuer l'impact économique de toutes ces autres IA combinées."

Le Vector Institute, l’aimant torontois pour la recherche sur l’IA, se trouve à moins d’un mile de distance. Depuis les fenêtres des grands bureaux ouverts, vous pouvez voir l’immeuble du parlement de l’Ontario. La proximité d’experts en IA, en chimie et en affaires du siège du gouvernement au centre-ville de Toronto n’est pas une coïncidence. Beaucoup de gens dans la ville sont convaincus que l’intelligence artificielle transformera le commerce et l’économie, et de plus en plus, certains sont convaincus que cela changera radicalement notre façon de faire de la science.

Néanmoins, si cela se produit, une première étape consiste à convaincre les scientifiques que cela en vaut la peine.

Guzman-Perez d’Amgen a déclaré que beaucoup de ses pairs en chimie médicinale étaient sceptiques. Au cours des dernières décennies, une série de technologies soi-disant révolutionnaires, allant de la conception informatique à la chimie combinatoire et au criblage à haut débit, ont automatisé la production et le test rapides de plusieurs molécules. Chacun s'est avéré quelque peu utile mais limité. Aucune, dit-il, "comme par magie, vous obtenez une nouvelle drogue."

Il est trop tôt pour savoir avec certitude si l'apprentissage en profondeur pourrait finalement changer la donne, reconnaît-il, «et il est difficile de connaître le délai». Mais il est encouragé par la vitesse à laquelle l'IA a transformé la reconnaissance d'images et d'autres tâches de recherche. .

«Espérons que cela puisse arriver en chimie», dit-il.

Nous attendons toujours le moment AlphaGo dans la chimie et les matériaux – pour des algorithmes d’apprentissage en profondeur qui surpasseront l’humain le plus accompli en proposant un nouveau médicament ou un nouveau matériau. Mais tout comme AlphaGo a remporté avec une combinaison de stratégie déroutante et une imagination inhumaine, les derniers programmes d’IA pour le moment pourraient bientôt faire leurs preuves dans les laboratoires.

Et cela a des scientifiques qui rêvent grand. Selon Aspuru-Guzik, l’idée est de faire appel à l’intelligence artificielle et à l’automatisation pour réinventer le laboratoire avec des outils tels que l’imprimante moléculaire de 30 000 $ qu’il espère construire. Il appartiendra alors à l’imagination des scientifiques – et à celle de l’IA – d’explorer les possibilités.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *