13
CEA CLEFS CEA - N° 52 - ÉTÉ 2005 102 Des nanotechnologies aux applications tements et observation des effets de la thérapie sur la maladie et sur le patient. Le développement de la phar- macogénétique (1) prépare la prochaine avancée majeure, le dépistage chez des sujets sains de prédispositions génétiques à certains cancers, à des maladies cardio- vasculaires ou encore à d’autres affections héréditaires. Des tests similaires seront employés pour identifier les patients dont le profil génétique peut conduire à des effets secondaires adverses en réaction à un médicament ou à une classe de médicaments.Avec les nouveaux tests, les hôpitaux et laboratoires d’analyse médicale s’équi- peront d’instruments et de systèmes d’information en partie inspirés des technologies aujourd’hui dévelop- pées et utilisées à des fins scientifiques, comme par exemple la spectrométrie de masse et les biopuces. Dans les années 1990, les biopuces ont été mises au point pour l’exploitation parallèle et à haut débit des (1) Pharmacogénétique : étude de la variabilité des réponses pharmacologiques en fonction du profil génétique des individus, par analyse des expressions phénotypiques (caractères apparents d’une cellule, voire d’un organisme, résultant de l’expression de ses gènes, via la synthèse de protéines), en particulier des différences dans l’équipement enzymatique et ses conséquences sur le métabolisme. Puce EWOD, microsystème permettant la manipulation de gouttes de 100 nanolitres par électromouillage. Grâce aux électrodes mises une à une sous tension, la goutte d’échantillon se déplace. A ujourd’hui, les chercheurs disposent d’outils qui ne se limitent plus aux équipements et réactifs de laboratoire. Ils utilisent des instruments issus des hautes technologies et des programmes informatiques puissants pour découvrir les principes de base et les comportements qui gouvernent les mécanismes du vivant aux niveaux moléculaire, cellulaire, des orga- nismes et à l’échelle des populations. Les avancées technologiques renforceront l’importance du diagnostic à toutes les étapes de suivi du patient : identification de la maladie, localisation, choix des trai- Les micro- et nano- technologies pour le vivant Vers des microsystèmes d’analyse interfacés avec le vivant Identifier une pathologie, choisir la thérapie appropriée et suivre ses effets, dépister chez un individu sain des prédispositions génétiques à certaines maladies, effectuer des analyses biomédicales dans de véritables laboratoires miniaturisés en n’utilisant qu’une goutte de sang, permettant ainsi de réduire le volume des prélèvements, la consommation de réactifs, le temps et les coûts, analyser et manipuler à grande échelle et de façon individualisée la cellule vivante, telles sont les applications prometteuses en cours de développement des nanotechnologies. Au cours des dernières décennies, notre compréhension des bases de la gestion de l’information dans le monde du vivant a progressé à grands bonds, avec la découverte de la structure en double hélice de la molécule d’ADN puis son séquençage et l’analyse fonctionnelle des gènes. Durant le même laps de temps, les sciences et technologies de l’information ont réalisé des prouesses époustouflantes. Du rapprochement de ces deux domaines émergent des nouveaux champs interdisciplinaires pour la recherche scientifique avec des applications au bénéfice de la société et de ses citoyens.

Les micro- et nano- technologies pour le vivant - CEA...cialisées par la société californienne Zyomyx Inc. Ces dispositifs, qui permettent en un temps record de réaliser un très

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

CEA

CLEFS CEA - N° 52 - ÉTÉ 2005102

Des nanotechnologies aux applications

tements et observation des effets de la thérapie sur lamaladie et sur le patient. Le développement de la phar-macogénétique(1) prépare la prochaine avancée majeure,le dépistage chez des sujets sains de prédispositions génétiques à certains cancers, à des maladies cardio-vasculaires ou encore à d’autres affections héréditaires.Des tests similaires seront employés pour identifier lespatients dont le profil génétique peut conduire à deseffets secondaires adverses en réaction à un médicamentou à une classe de médicaments.Avec les nouveaux tests,les hôpitaux et laboratoires d’analyse médicale s’équi-peront d’instruments et de systèmes d’information enpartie inspirés des technologies aujourd’hui dévelop-pées et utilisées à des fins scientifiques, comme par exemple la spectrométrie de masse et les biopuces.Dans les années 1990, les biopuces ont été mises aupoint pour l’exploitation parallèle et à haut débit des

(1) Pharmacogénétique : étude de la variabilité des réponsespharmacologiques en fonction du profil génétique desindividus, par analyse des expressions phénotypiques(caractères apparents d’une cellule, voire d’un organisme,résultant de l’expression de ses gènes, via la synthèse deprotéines), en particulier des différences dans l’équipementenzymatique et ses conséquences sur le métabolisme.

Puce EWOD, microsystème permettant la manipulation de gouttes de 100 nanolitres par électromouillage. Grâce aux électrodes mises une à une sous tension, la goutted’échantillon se déplace.

Aujourd’hui, les chercheurs disposent d’outils quine se limitent plus aux équipements et réactifs de

laboratoire. Ils utilisent des instruments issus des hautes technologies et des programmes informatiquespuissants pour découvrir les principes de base et lescomportements qui gouvernent les mécanismes duvivant aux niveaux moléculaire, cellulaire, des orga-nismes et à l’échelle des populations.Les avancées technologiques renforceront l’importancedu diagnostic à toutes les étapes de suivi du patient:identification de la maladie, localisation,choix des trai-

Les micro- et nano-technologies pour le vivant

Vers des microsystèmes d’analyseinterfacés avec le vivantIdentifier une pathologie, choisir la thérapie appropriée et suivre ses effets, dépisterchez un individu sain des prédispositions génétiques à certaines maladies, effectuerdes analyses biomédicales dans de véritables laboratoires miniaturisés en n’utilisantqu’une goutte de sang, permettant ainsi de réduire le volume des prélèvements, la consommation de réactifs, le temps et les coûts, analyser et manipuler à grandeéchelle et de façon individualisée la cellule vivante, telles sont les applicationsprometteuses en cours de développement des nanotechnologies.

Au cours des dernières décennies,notre compréhension des bases de la gestion de l’information dansle monde du vivant a progressé à grands bonds, avec la découvertede la structure en double hélice de lamolécule d’ADN puis son séquençageet l’analyse fonctionnelle des gènes.Durant le même laps de temps, les sciences et technologies del’information ont réalisé desprouesses époustouflantes. Du rapprochement de ces deuxdomaines émergent des nouveauxchamps interdisciplinaires pour larecherche scientifique avec desapplications au bénéfice de la sociétéet de ses citoyens.

CLEFS CEA - N° 52 - ÉTÉ 2005 103

données et corrélats de la nouvelle biologie, celle dugénome puis celle du protéome. Les premières pucesà ADN ont été rapidement commercialisées avec dessuccès retentissants tant sur le plan scientifique quefinancier.La masse d’informations collectées et le débitdes puces ont été sans précédent et ont révolutionné la recherche en biologie. Une nouvelle voie est ouvertepour les approches analytiques à haut débit et de nombreuses équipes se lancent dans la recherche et ledéveloppement de microsystèmes d’analyse pour labiologie.À l’heure actuelle, l’éventail des analyses minia-turisées couvre les domaines de la biologie moléculaire,structurale et cellulaire avec des applications allant dudiagnostic médical à la surveillance de l’environnement.À la base de ces développements, deux approchesrépondent à l’adage smaller, faster, cheaper (plus petit,plus rapide, moins cher) : les microarrays, d’une part,constituées de milliers de spots micrométriques demolécules biologiques (ADN ou protéines) arrangésen matrice sur une lame de verre ou de silicium dansun ordre prédéterminé et la microfluidique, d’autrepart,ou l’art de manipuler des volumes d’échantillonset de réactifs inférieurs au microlitre (10-6 litre). Àl’intersection de ces deux disciplines, les labopucesde demain seront des systèmes intégrant toutes lesétapes, du traitement de l’échantillon au rendu durésultat. Ces labopuces auront absorbé au passage des composants microélectroniques, optiques et logi-ciels et seront fabriqués avec des techniques mises aupoint pour la microélectronique.Dans cette course à la miniaturisation et à l’intégra-tion, les cellules trouvent naturellement leur place,et aujourd’hui de nombreux développements visent à créer des microsystèmes d’analyse interfacés avec le vivant. Ces cell-on-chips permettront des analysesphénotypiques,électriques et optiques,à la fois à grande

échelle et à l’échelle de la cellule unique. Héberger levivant n’est pas une mince affaire et préserver les fonc-tions fragiles de la microélectronique des pollutionsbiologiques en est une autre.Irrésistiblement, les biopuces subiront l’évolution deleurs cousins microprocesseurs vers l’extrême minia-turisation. Nanosciences et nanotechnologies serontmises à contribution pour réaliser les capteurs bio-mimétiques, c’est-à-dire qui s’inspirent des mécanis-mes de reconnaissance moléculaire et de transductiondes signaux rencontrés dans le monde vivant. Ces “nez électroniques” présenteront des sensibilités etsélectivités proches de celles du règne animal, un mil-liard de fois plus performantes que pour la meilleure technologie disponible actuellement.

Les microarrays, la force brute

Les microarrays ouvrent le bal en 1991 avec la publica-tion par Stephen P. A. Fodor, dans la revue Science(2),d’une méthode de fabrication de puces à oligonucléo-tides(3) par synthèse chimique in situ, base par base,utilisant la photolithographie (encadré E, La litho-graphie, clé de la miniaturisation, p. 37), l’une destechniques fondamentales de la microélectronique. Lasociété américaine Affymetrix, leader mondial desbiopuces,met au point le procédé qui permet d’atteindreune densité de 1 million de sondes par cm2. Lespremières puces sont commercialisées dès 1995.Alors que les puces d’Affymetrix sont limitées à depetits oligonucléotides de 25 bases au maximum,d’autres mettent en œuvre des produits PCR(Polymerase Chain Reaction), des plasmides(4), del’ADN génomique ou des oligonucléotides longs, de50 à 70 bases. Les puces sont élaborées par différentesméthodes, incluant la simple impression des sondessur une lame de microscope.Les microarrays servent essentiellement à mesurer leniveau d’expression de centaines, voire de milliers de gènes. L’ARN messager (ARNm) est extrait descellules d’un même type, converti en ADN complé-mentaire (ADNc) puis amplifié et marqué à l’aide d’une substance fluorescente.Une molécule d’ADNc,complémentaire de l’une des sondes de la puce, va coller par hybridation sur le spot correspondant et être détectée à l’aide d’un scanner de puces. L’intensitéde la lumière émise dépend du nombre de copies d’un ARNm spécifique présent, et donc de l’activitéou du niveau d’expression du gène. En un sens, cesmicroarrays sont une représentation, ou un profil,des gènes actifs ou inactifs à un moment donné dansun type cellulaire particulier. Les premiers résultatssont parus en 1995 dans la revue Science et le pre-mier génome complet d’eucaryote(5) (la levure(6)

Saccharomyces cerevisiae) obtenu sur une puce a été

(2) Science, 251, pp. 767-773.

(3) Oligonucléotide : court fragment d’ADN composé de deux à quelques dizaines de nucléotides. Les nucléotides sontconstitués d’une base (purique ou pyrimidique), d’un sucre et d’un groupement phosphate.

(4) Plasmide : macromolécule circulaire d’ADN présente chezles bactéries, capable de se répliquer de façon autonome.

(5) Eucaryote : organisme vivant composé d’une ou de plusieurscellules possédant un noyau et un cytoplasme distincts.

(6) Levure : champignon microscopique unicellulaire se reproduisant principalement de façon asexuée.

Grâce au dispositif MeDICS, faire léviter, déplacer danstoutes les directions, analyser et récupérer une celluleunique sont devenus un jeu d’enfant.

P. C

hagn

on/B

SIP

-CEA

CLEFS CEA - N° 52 - ÉTÉ 2005104

Des nanotechnologies aux applications

publié dès 1997. Aujourd’hui, plusieurs sociétés(Agilent,Affymetrix) proposent des microarrays cou-vrant l’intégralité du génome humain.Les puces à ADN permettent également de détecter lesvariations génétiques d’un individu à l’autre ou entrepopulations. Grâce aux fortes densités de sondes, il estpossible de réaliser des tests génétiques sur un éventailimportant d’éventuelles altérations du génome. Cesapproches sont susceptibles d’être utilisées dans denombreuses situations pathologiques. Dans le cas d’infections, elles donneront les moyens d’identifierrapidement l’agent responsable, bactérie ou virus,de le typer génétiquement et de choisir le traitementle plus efficace.Pour le cancer, il sera possible de recher-cher les facteurs génétiques liés à un risque importantd’apparition de la maladie. Le patient pourra alorsadapter ses habitudes de vie, suivre un traitement préventif et sa maladie sera détectée à un stade très précoce,avant l’apparition des symptômes.La tendances’infléchit donc vers des puces “ciblées”sur une condi-tion, un symptôme, un trait génétique particulier. Lapriorité sera donnée au prix de revient, à la robustesse,à la sensibilité et à la sélectivité des puces de basse etmoyenne densités destinées au diagnostic médical.Mais, l’ADN ce n’est pas les protéines! Le génome seulne permet pas de décrire la fonction des protéinespour lesquelles il code(7), ni les mécanismes qui régu-lent leur concentration dans les cellules. De plus, lesprotéines actives sont souvent le résultat de modifica-tions post-traductionnelles(8) qui s’opèrent dans lesdivers compartiments cellulaires. De fait, le nombrede protéines différentes est estimé à environ 500000, alors que le génome humain ne contient que30000 gènes. Là encore, les microarrays peuvent aiderà identifier et à quantifier les protéines présentes dansun échantillon cellulaire, en remplaçant l’ADN despuces décrites ci-dessus par une matrice de protéinescapables de s’attacher spécifiquement à une autre pro-téine. Ainsi, il est possible de remonter directement àla composition protéique d’un mélange complexe.Lespremières puces de ce type sont maintenant commer-cialisées par la société californienne Zyomyx Inc.Ces dispositifs, qui permettent en un temps recordde réaliser un très grand nombre d’analyses, sont

toujours plus diversifiés avec des développementsrécents de puces à petites molécules, puces à sucresou puces à enzymes. Parallèlement, leur champd’applications s’est considérablement élargi. Dansle domaine agroalimentaire, par exemple, ils appor-tent une solution aux problèmes de traçabilité de laviande ou de détection des OGM (Organismes géné-tiquement modifiés).Le développement industriel des microarrays doitmaintenant se faire en complète intégration avec celuide la microfluidique, pour aboutir à des dispositifscomplets capables de fournir le résultat recherché àpartir d’un échantillon brut.

La microfluidique, de la précision dans l’art de faire du café

Depuis plusieurs décennies, les biochimistes tententde réduire les volumes de réactions utilisant des quan-tités de produits toujours plus faibles, soit parce qu’ilsne disposent pas d’un échantillon suffisant, soit pourréduire le coût des réactifs, soit encore parce que l’objet de l’analyse, par exemple la cellule, est si petitqu’il doit être manipulé dans un volume réduit. Ainsi,le criblage haut débit employé par l’industrie pharma-ceutique pour rechercher des candidats médicamentsau sein de banques de milliers de composés chimiquesest passé de 96 à 384 puis à 1536 expériences simulta-nées. Le volume par réaction a décru dans le mêmetemps de 300 microlitres à moins de 5 microlitres.Les MEMS(Micro Electro Mechanical Systemsou Systèmesmicro-électro-mécaniques) sont des dispositifs de taillecomprise entre 1 et 300 microns capables de détecterou de générer des forces mécaniques, électroméca-niques, thermiques ou acoustiques. Apparus dans lesannées 1980, ils sont à l’origine d’importants succèsindustriels et commerciaux comme, par exemple,les capteurs de choc des airbags ou les têtes d’injectiondes imprimantes à jet d’encre. On compterait aujour-d’hui plus de 1,6 MEMS par habitant aux États-Unis.Depuis le début des années 1990, ces dispositifs sont

Image obtenue parscanner de fluorescence

d’une puce à ADN. CEA

P. S

trop

pa/C

EA

Projet Capucine. La puce consiste en une succession deplusieurs centaines de molécules biologiques, ADN, peptidesou protéines, fixées sur la paroi interne d’un tube en verre de la taille d’un cheveu, chaque élément occupant une sectioncylindrique bien définie. Grâce à ce nouveau format, il estpossible d’analyser un échantillon biologique de quelquescentièmes de microlitre seulement. Le capillaire peut être relié,par une connexion microfluidique, à un labopuce, à un systèmed’électrophorèse capillaire ou à un spectromètre de masse.

(7) Code d’une protéine : séquence d’ADN ou encore gène qui permet à la cellule de synthétiser une protéine donnée.

(8) Modification post-traductionnelle : dans le cycle cellulaire,modification enzymatique postérieure à la phase de synthèsepolypeptidique des protéines.

CLEFS CEA - N° 52 - ÉTÉ 2005 105

développés pour la chimie et la biologie avec de mul-tiples applications dans le domaine biomédical et l’analyse chimique. Pour cela, il faut pouvoir dépla-cer, fractionner,mélanger ou séparer des liquides dansdes dimensions pour le moins inhabituelles. Réduirela taille des tuyaux et associer les composants qui permettent de contrôler le transport des réactifs sontà l’origine d’un nouveau domaine multidisciplinaire,incluant physique, technologie, chimie et biologie :la microfluidique(9).Dans les microsystèmes, les interactions entre les liqui-des et les parois jouent un rôle prépondérant. Dansune microtasse de quelques nanolitres (10-9 litre) decafé (à ne pas confondre avec les microTAS détaillésplus loin), mélanger le lait par agitation devient unetâche dantesque. En fait, contraint dans un récipientde dimensions micrométriques, le café se comportecomme un liquide très visqueux, du miel par exemple.Il est donc plus difficile de le faire tourbillonner. Cephénomène résulte des forces de surface qui devien-nent très importantes, rendant les approches conven-tionnelles telles qu’appliquer une pression ou agitermécaniquement presque obsolètes pour les systèmesminiaturisés. Il a ainsi fallu développer de nouveauxmicrocomposants, vannes, tubes, pompes, réacteurs,capables de manipuler des fluides dans ces micro-installations. Ces travaux débouchent sur une variétéde dispositifs comme des séparateurs électrophoré-tiques, des pompes électro-osmotiques, des micro-mélangeurs, des systèmes d’amplification de l’ADN,des microcytomètres(10),des réacteurs chimiques,pourn’en citer que quelques-uns (voir La microfluidique ou l’art de manipuler des petits volumes de liquides).Hors des sentiers battus de la microfluidique, la tech-nique EWOD (ElectroWetting On Dielectric ou micro-fluidique digitale) permet de manipuler des gouttes àl’aide d’un réseau d’électrodes.Le principe est simple.Quand une électrode est activée électriquement, elledevient plus attractive pour le liquide que le biochi-miste cherche à déplacer.Une goutte présente sur l’unedes électrodes adjacentes va sauter naturellement surcelle qui est active. Il est alors possible de remettre cettedernière dans son état neutre avant de procéder audéplacement suivant.De proche en proche une gouttede quelques dizaines de nanolitres est transportée d’uneextrémité à l’autre du centimètre carré de la puce. AuLaboratoire d’électronique et de technologie de l’infor-mation à Grenoble (CEA-Leti), les chercheurs ont réussià utiliser ce principe pour générer des gouttes à partird’un réservoir, les séparer, les trier et les fusionner, letout entièrement piloté par un programme infor-matique. Comme dans le cas de la microplomberie,l’objectif est d’intégrer l’ensemble des étapes de la pré-paration de l’échantillon et de l’analyse sur une puce.

Les labopuces, l’intégration fonctionnelle

Au fil des progrès et des nouvelles réalisations, plusétonnantes les unes que les autres dans le domaine des biopuces, l’horizon des possibilités s’agrandit.L’objectif des microTAS (Micro Total Analysis Systemsou Microsystèmes d’analyse totale) est bel et bien

de faire cohabiter sur un même dispositif tous leséléments nécessaires à l’analyse, à savoir les systèmesde connexion avec le monde macroscopique, la micro-fluidique et la détection. À l’image des MEMS, lesmicroTAS seront pilotés par programmes informa-tiques et les signaux détectés seront convertis ensignaux numériques interprétables automatiquement.Les biopuces “tout électronique” ont les mêmes ver-tus que les MEMS: fabrication en parallèle, potentielpour la miniaturisation, économie de volume. Cetteconstatation n’a pas échappé à l’industrie de la micro-électronique et Motorola, Samsung ou Intel se sontlancés dans la course.Si STMicroelectronics réussit son pari,elle sera la pre-mière société à commercialiser un microlaboratoirecapable de réaliser un test génétique complet incluantl’extraction d’ADN, l’amplification et le marquage des gènes par PCR suivi d’une hybridation sur unemicroarray. Aujourd’hui, PCR et microarray tiennentsur une puce de silicium de 2 cm2 qui est chargée avecl’échantillon à analyser et insérée directement dans untiroir semblable à un lecteur de CD dans l’ordinateurqui pilote les opérations. En s’inspirant des têtes d’in-jectiondes imprimantes à jet d’encre, la puce comportedes microcanaux et des éléments chauffants micro-fabriqués.À terme, l’entreprise prévoit de déployer sessystèmes dans les cabinets des médecins.

Cell-on-chips, les cellules entrent dans la danse

Dans la course à l’intégration, la cellule mène la danse.Qui donc mieux que la cellule intègre l’informationdu génome, la régulation du transcriptome, l’acti-vité du protéome et la complexité du métabolome ?Interfacer le vivant et les microsystèmes apparaît ainsi comme le meilleur pari pour accéder à cetteconnaissance, disséquer des événements uniques,identifier des nouveaux acteurs, autant de marqueursou de cibles potentiels dans le domaine du diagnos-tic et de la thérapeutique.Les développements de cell-on-chips sont en pleinessor.Certains chercheurs s’attachent à manipuler des

P. S

trop

pa/C

EA

Puce développée dans lecadre d’un contrat de R&DCEA/STMicroelectronicsdédiée au diagnosticgénétique. Ce dispositifintègre la préparation de l’échantillon d’ADN paramplification enzymatique(PCR) et son analyse parhybridation sur des sondesoligonucléotidiques.

(9) PATRICK TABELING, Introduction à la microfluidique,Collection Échelles, Belin, 2003.

(10) Microcytomètre : dispositif miniaturisé pour analyser des cellules, voire les trier.

CEA

CLEFS CEA - N° 52 - ÉTÉ 2005106

Des nanotechnologies aux applications

cellules uniques par des champs électriques,optiques,voire même holographiques ou acoustiques.D’autres,comme Peter Fromherz au Max Planck Institute ofBiochemistry à Munich en Allemagne, interfacent desneurones avec des transistors électroniques et réali-sent des premières connexions cellulo-électroniques.D’autres encore cultivent des cellules en matrice demicrogouttes dans un format microarray. Chaquemicrogoutte devient alors un puits virtuel et le sub-strat permet de cribler à haute densité des drogues,des ARNsi (ARN inhibiteur de gène) ou des nouveauxgènes (Projet Phénopuces au CEA).Les principaux défis sont de garantir la viabilité cellulaire et de minimiser l’impact de la méthode d’analyse ou de manipulation sur son fonctionnement(le principe d’incertitude d’Heisenberg s’appliquedéjà au niveau d’une cellule). À l’inverse, il fautégalement protéger la microélectronique des pollu-tions organiques du vivant.Silicon BioSystems, une jeune pousse italienne issuedu Département de microélectronique de l’universitéde Bologne,en collaboration avec le CEA (LaboratoireBiopuces) et l’Inserm (Laboratoire d’immunochimiedu Département réponse et dynamique cellulaires),a imaginé une application surprenante de la techno-logie CMOS (technologie standard pour la fabrica-tion des microprocesseurs et autres écrans plats). Unréseau de plus de 100 000 électrodes multiplexées,c’est-à-dire contrôlables une à une, est utilisé pourmanipuler individuellement chacune des cellulesprésentes dans une petite population. Au-dessus des

électrodes, les cellules s’auto-organisent au sein decages de potentiel électrique ajustées pour ne conte-nir qu’une seule cellule.Les cellules sont repérées grâceaux capteurs optiques ou électroniques intégrés dansla puce. L’opérateur a les moyens de sélectionner uneou plusieurs cellules d’intérêt qui sont déplacées versune petite chambre où elles peuvent être récupéréesindividuellement. Les déplacements et le chemin par-couru par les cellules sont effectués sans mouvementde fluide et sont entièrement gérés par un programmequi peut être paramétré en fonction de l’application.Cette technologie révolutionnaire ouvre des voiesinexplorées, en particulier dans des marchés à trèsfort potentiel, comme le diagnostic prénatal noninvasif, l’isolement de cellules souches et la mani-pulation de cellules thérapeutiques.

Un exemple de convergence entre nanotechnologie et biologie

Les récepteurs biologiques présents à la surface des cellules exhibent une sensibilité et une spécificitépour leurs ligands bien au-delà des performancesdes meilleurs capteurs physiques connus aujourd’hui.Un défi important dans la recherche et le dévelop-pement de biocapteurs consiste à trouver le moyend’exploiter ces aptitudes en mimant ces récepteursnaturels et leur environnement. Une solution consisteà modifier par bio-ingénierie les récepteurs de ligandsspécifiques, par exemple des drogues, des herbicides,des insecticides, des métaux lourds(11), et de leur offrirun environnement biomimétique où leur activitépourra être enregistrée et quantifiée.Le projet Silipore,une collaboration entre le Laboratoire Biopuces, leLeti et les laboratoires de Biophysique moléculaireet cellulaire (BMC) et Enzymes, membranes bio-logiques et biomimétiques (EMBB) du CNRS, a étémonté pour répondre à ce défi. Silipore est unemembrane en silicium de dimension submicroniquedotée de pores calibrés qui permettent d’héberger etde stabiliser une bicouche lipidique et ces récepteurs“bio-ingénieriés”. Lorsqu’un ligand se fixe sur unrécepteur, le canal ionique couplé à ce récepteurs’ouvre et laisse donc passer un courant ionique mesu-rable par le courant électrique qu’il engendre.

> François Châtelain et Alexandra FuchsDirection des sciences du vivant

CEA centre de Grenoble

À gauche, une section du réseau d’électrodes (la taille d’une électrode est de 20 µm) dans laquelle des cages de potentiel ont étégénérées pour piéger des particules. À droite, la puce MeDICS avec, en insert, une organisation de cellules dans les pièges. En manipulant chaque cellule indépendamment, il devient possible de trier des populations de cellules rares, comme, par exemple,lors de l’analyse de biopsies ou de l’isolement de cellules souches à visée thérapeutique.

CEA

(11) Métaux lourds : métaux dont la densité est supérieure à4,5 g/cm3. Figurent parmi eux le zinc (7,14), le cadmium (8,6),le plomb (11,35)…

La membraneSilipore montrant

une matrice de nanopores de

diamètre 300 nm.

A

Afin de se représenter plus aisé-ment les dimensions des objets

micro et nanoscopiques*, il est pra-tique de procéder à des comparaisonset courant de faire correspondre diffé-rentes échelles, par exemple celle dumonde du vivant, de la molécule àl’homme, et celle des objets manipulésou fabriqués par lui (figure). Cettecorrespondance entre “artificiel” et“naturel” permet, par exemple, de voirque des nanoparticules fabriquéesartificiellement sont plus petites quedes globules rouges.Un autre mérite de cette juxtapositionest d’illustrer les deux grandes façons

Tranche de silicium de 300 mm réalisée par l’Alliance Crolles2, illustration de la démarchetop-down actuelle de la microélectronique.

Artech

niqu

e

Du monde macroscopique au nanomonde, ou l’inverse…

d’élaborer des objets ou des systèmesnanométriques : la voie descendante(top-down) et la voie ascendante(bottom-up). Deux chemins mènent eneffet au nanomonde : la fabricationmoléculaire, qui passe par la mani-pulation d’atomes individuels et laconstruction à partir de la base, etl’ultraminiaturisation, qui produit dessystèmes de plus en plus petits.La voie descendante est celle du mondeartificiel, qui part de matériaux macro-scopiques, ciselés par la main del’homme puis par ses instruments: c’estelle qu’a empruntée l’électroniquedepuis plusieurs dizaines d’années,principalement avec le silicium commesubstrat, et ses “tranches” (wafers)comme entités manipulables. C’estd’ailleurs la microélectronique qui alargement contribué à donner à cettevoie le nom anglais sous laquelle elle

est connue. Mais il ne s’agit plus seu-lement d’adapter la miniaturisation dela filière silicium actuelle, mais ausside prendre en compte, pour s’en pré-munir ou les utiliser, les phénomènesphysiques, quantiques en particulier,qui apparaissent aux faibles dimen-sions.La voie ascendante peut permettre depasser outre ces limites physiques etaussi de réduire les coûts de fabrica-tion, en utilisant notamment l’auto-assemblage des composants. C’est elleque suit la vie en pratiquant l’assem-blage de molécules pour créer des pro-téines, enchaînement d’acides aminésque des super-molécules, les acidesnucléiques (ADN, ARN), savent faire pro-duire au sein de cellules pour formerdes organismes, les faire fonctionner etse reproduire tout en se complexifiant.Cette voie, dite “bottom-up”, vise à orga-

niser la matière à partir de “briques debase”, dont les atomes eux-mêmes sontles plus petits constituants, à l’instardu monde vivant. La nanoélectroniquedu futur cherche à emprunter cette voied’assemblage pour aboutir à moindrecoût à la fabrication d’éléments fonc-tionnels.Les nanosciences peuvent ainsi êtredéfinies comme l’ensemble des recher-ches visant à la compréhension despropriétés (physiques, chimiques etbiologiques) des nano-objets ainsiqu’à leur fabrication et à leur assem-blage par auto-organisation.Les nanotechnologies regroupent l’en-semble des savoir-faire qui permet-tent de travailler à l’échelle molécu-laire pour organiser la matière afin deréaliser ces objets et matériaux, éven-tuellement jusqu’à l’échelle macro-scopique.

*Du grec nano qui signifie “tout petit”et est utilisé comme préfixe pour désigner le milliardième (10-9) d’une unité. Enl’occurrence, le nanomètre (1 nm = 10-9 m,soit un milliardième de mètre) est l’unitéreine du monde des nanosciences et desnanotechnologies.

A

mondevivant

voie ascendante“bottom-up”

monde artificielvoie

descendante“top-down”

homme2 m

véhicule individuel 2 m

papillon5 cm

téléphone portable 10 cm

fourmi1 cm

puce de carte 1 cm

puce1 mm

grain de pollen 10 µm à 20 µm

cheveu 50 µm(diamètre)

globule rouge5 µm

virus 0,1 µm

ADN3,4 nm

molécule quelques Å

microsystème 10-100 µm

interconnexions de circuit intégré

1-10 µm

transistor “Cooper”

1 µm

nanotransistor 20 nm

nanoparticule10 nm

boîte quantique5 nm

atome 1 nm

(Suite)

0,1 nm

10-10 m 10-9 m 10-8 m 10-7 m 10-6 m 10-5 m 10-4 m 10-3 m 10-2 m 10-1 m

1 nm

nanomonde

10 nm 100 nm 1 µm 10 µm 100 µm 1 mm 1 cm 10 cm 1 m

S. W

anke

/Pho

tolin

k

PSA

-Peu

geot

Citr

oën

Tron

ics

CEA

-Let

i

CEA

-Let

i

CEA

-Let

i

CEA

/DR

FMC

/J.-

M. P

énis

son

Pat

Pow

ers

and

Che

rryl

Sch

afer

Fréd

éric

Bal

lene

gger

E. P

olla

rd/P

hoto

link

E. P

olla

rd/P

hoto

link

IBM

Res

earc

h

A. Ponchet, CNRS/CEMES

D. R

.

Geo

stoc

k

M. F

reem

an/P

hoto

link

CEA

D. M

icho

n-Ar

tech

niqu

e/CE

A

Artechnique/CEA

B

La physique quantique (historique-ment dénommée mécanique quan-

tique) est l’ensemble des lois physiquesqui s’appliquent à l’échelle microsco-pique. Fondamentalement différentesde la plupart de celles qui semblents’appliquer à notre propre échelle, ellesn’en constituent pas moins le socle glo-bal de la physique à toutes ses échel-les. Mais à l’échelle macroscopique, sesmanifestations ne nous apparaissentpas étranges, à l’exception d’un certainnombre de phénomènes a prioricurieux, comme la supraconductivitéou la superfluidité , qui justement nes’expliquent que par les lois de laphysique quantique. Au demeurant, lepassage du domaine de validité des loisparadoxales de cette physique à celuides lois, plus simples à imaginer, de laphysique classique peut s‘expliquerd’une façon très générale, comme celasera évoqué plus loin.La physique quantique tire son nomd’une caractéristique essentielle desobjets quantiques: des caractéristiquescomme le moment angulaire (spin) desparticules sont des quantités discrètesou discontinues appelées quanta, quine peuvent prendre que des valeursmultiples d’un quantum élémentaire. Ilexiste de même un quantum d’action(produit d’une énergie par une durée)

appelé constante de Planck (h), dont lavaleur est de 6,626·10-34 joule·seconde.Alors que la physique classique distin-gue ondes et corpuscules, la physiquequantique englobe en quelque sorte cesdeux concepts dans un troisième, quidépasse la simple dualité onde-cor-puscule entrevue par Louis de Broglie,et qui, quand nous tentons de l’appré-hender, semble tantôt proche du pre-mier et tantôt du deuxième. L’objet quan-tique constitue une entité inséparablede ses conditions d’observation, sansattribut propre. Et cela, qu’il s’agissed’une particule – en aucun cas assimi-lable à une bille minuscule qui suivraitune quelconque trajectoire – de lumière

(photon) ou de matière (électron, proton,neutron, atome…).Cette caractéristique donne toute sa forceau principe d’incertitude d’Heisenberg,autre base de la physique quantique.Selon ce principe (d’indéterminationplutôt que d’incertitude), il est impos-sible de définir avec précision à un instantdonné à la fois la position d’une parti-cule et sa vitesse. La mesure, qui restepossible, n’aura jamais une précisionmeilleure que h, la constante de Planck.Ces grandeurs n’ayant pas de réalitéintrinsèque en dehors du processusd’observation, cette déterminationsimultanée de la position et de la vitesseest simplement impossible.

Quelques repères de physique quantique

“Vue d’artiste” de l’équation de Schrödinger.

D. S

arra

ute/

CEA

C’est qu’à tout instant l’objet quantiqueprésente la caractéristique de superpo-serplusieurs états, comme une onde peutêtre le résultat de l’addition de plusieursautres. Dans le domaine quantique, lahauteur d’une onde (assimilable à celled’une vague par exemple) a pour équi-valent une amplitude de probabilité (ouonde de probabilité), nombre complexeassocié à chacun des états possibles d’unsystème qualifié ainsi de quantique.Mathématiquement, un état physiqued’un tel système est représenté par unvecteur d’état, fonction qui, en vertu duprincipe de superposition, peut s’ajouterà d’autres. Autrement dit, la somme dedeux vecteurs d’état possibles d’un sys-tème est aussi un vecteur d’état possibledu système. De plus, le produit de deuxespaces vectoriels est aussi la sommede produits de vecteurs, ce qui traduitl’intrication: un vecteur d’état étant géné-ralement étalé dans l’espace, l’idée delocalité des objets ne va plus de soi. Dansune paire de particules intriquées, c’est-à-dire créées ensemble ou ayant déjàinteragi l’une sur l’autre, décrite par leproduit et non par la somme de deux vec-teurs d’état individuels, le destin de cha-cune est lié à celui de l’autre, quelle quesoit la distance qui pourra les séparer.Cette caractéristique, également appe-lée l’enchevêtrement quantique d’états, a

des implications vertigineuses, sansparler des applications imaginables, dela cryptographie quantique à – pourquoine pas rêver? – la téléportation.Dès lors, la possibilité de prévoir le com-portement d’un système quantique n’estqu’une prédictibilité probabiliste et sta-tistique. L’objet quantique est en quelquesorte une “juxtaposition de possibles”.Tant que la mesure sur lui n’est pas faite,la grandeur censée quantifier la pro-priété physique recherchée n’est passtrictement définie. Mais dès que cettemesure est engagée, elle détruit lasuperposition quantique, par réductiondu paquet d’ondes, comme WernerHeisenberg l’énonçait en 1927.Toutes les propriétés d’un système quan-tique peuvent être déduites à partir del’équation proposée l’année précédentepar Erwin Schrödinger. La résolution decette équation de Schrödinger permetde déterminer l’énergie du système ainsique la fonction d’onde, notion qui a donctendance à être remplacée par celled’amplitude de probabilité.Selon un autre grand principe de la phy-sique quantique, le principe (d’exclu-sion) de Pauli, deux particules identiquesde spin 5 (c’est-à-dire des fermions, enparticulier les électrons) ne peuvent avoirà la fois la même position, le même spinet la même vitesse (dans les limites

posées par le principe d’incertitude),c’est-à-dire se trouver dans le mêmeétat quantique. Les bosons (en particulierles photons), ne suivent pas ce principeet peuvent se trouver dans le même étatquantique.La coexistence des états superposésdonne sa cohérence au système quan-tique. Dès lors, la théorie de la déco-hérence quantique peut expliquer pour-quoi les objets macroscopiques ont uncomportement “classique” tandis queles objets microscopiques, atomes etautres particules, ont un comportementquantique. Plus sûrement encore qu’undispositif de mesure pointu, “l’environ-nement” (l’air, le rayonnement ambiant,etc.) exerce son influence, éliminantradicalement toutes les superpositionsd’état à cette échelle. Plus le systèmeconsidéré est gros, plus il est en effetcouplé à un grand nombre de degrés deliberté de cet environnement. Et doncmoins il a de “chances” – pour resterdans la logique probabiliste – de sau-vegarder une quelconque cohérencequantique.

B (Suite)

POUR EN SAVOIR PLUSÉtienne KLEIN, Petit voyage dans le monde des quanta, Champs,Flammarion, 2004.

C

La fabrication des puits quantiquesutilise la technique d’épitaxie (du

grec taxi (ordre) et epi (dessus) par jetsmoléculaires (en anglais MBE, pourMolecular Beam Epitaxy). Le principe decette technique de dépôt physique,développée initialement pour la crois-sance cristallinedes semi-conducteursde la famille III-V, est fondé sur l’éva-poration des différents constituantspurs du matériau à élaborer dans uneenceinte où est maintenu un vide poussé(pression pouvant être de l’ordre de5·10-11 mbar) afin d’éviter toute pollu-tion de la surface. Un ou des jets ther-miques d’atomes ou de moléculesréagissent sur la surface propre d’unsubstrat monocristallin, placé sur unsupport maintenu à haute température(quelques centaines de °C), qui sert detrame pour former un film dit épi-taxique. Il est ainsi possible de fabri-quer des empilements de couches aussifines que le millionième de millimètre,c’est-à-dire composées de seulementquelques plans d’atomes.

Les éléments sont évaporés ou subli-més à partir d’une source de hautepureté, placée dans une cellule à effu-sion (chambre dans laquelle un fluxmoléculaire passe d’une région oùrègne une pression donnée à une régionde plus basse pression) chauffée pareffet Joule.La croissance du film peut être suiviein situet en temps réel en utilisant diver-ses sondes structurales et analytiques,en particulier des techniques d’étudede la qualité des surfaces et de leurstransitions de phase par diffractionélectronique en incidence rasante, LEED(pour Low energy electron diffraction) ouRHEED (pour Reflection high-energyelectron diffraction) et diverses métho-des spectroscopiques (spectroscopied’électrons Auger, SIMS (spectromé-trie de masse d’ions secondaires), spec-trométrie de photoélectrons XPS parrayons X et UPS (Ultraviolet photoelec-tron spectroscopy).La technique d’épitaxie par jets molé-culaires s’est étendue à d’autres semi-

conducteurs que les III-V, à des métauxet à des isolants, se développant avecles progrès des techniques d’ultravide.Le vide régnant dans la chambre decroissance, dont la conception varieen fonction de la nature du matériauà déposer, doit en effet être meilleureque 10-11 mbar pour permettre lacroissance d’un film de haute puretéet d’excellente qualité cristalline àdes températures de substrat relati-vement basses. Il s’agit de qualité devide lorsque le bâti est au repos. Pourla croissance d’arséniures, par exem-ple, le vide résiduel est de l’ordre de10-8 mbar dès que la cellule d’arse-nic est portée à sa température deconsigne pour la croissance.Le pompage pour atteindre ces per-formances fait appel à plusieurs tech-niques (pompage ionique, cryopom-page, sublimation de titane, pompes àdiffusion ou turbomoléculaires). Lesprincipales impuretés (H2, H2O, CO etCO2) peuvent présenter des pressionspartielles inférieures à 10-13 mbar.

L’épitaxie par jets moléculaires

D

En décembre 1947, John Bardeenet Walter H. Brattain réalisaient le

premier transistor en germanium.Avec William B. Shockley, aux BellLaboratories, ils développaient l’annéesuivante le transistor à jonction et lathéorie associée. Au milieu des années1950, les transistors seront réalisés ensilicium (Si), qui reste aujourd’hui lesemi-conducteur généralement utilisé,vu la qualité inégalée de l’interface crééepar le silicium et l’oxyde de silicium (SiO2),qui sert d’isolant.

En 1958, Jack Kilby invente le circuitintégré en fabriquant cinq composantssur le même substrat. Les années 1970verront le premier microprocesseur d’Intel(2250 transistors) et les premières mémoi-res. La complexité des circuits intégrésne cessera de croître exponentiellementdepuis (doublement tous les deux-troisans, selon la “loi de Moore”) grâce à laminiaturisation des transistors.Le transistor (de l’anglais transfer resis-tor, résistance de transfert), composantde base des circuits intégrés micro-

électroniques, le restera mutatis mutan-dis à l’échelle de la nanoélectronique:adapté également à l’amplification,entre autres fonctions, il assume eneffet une fonction basique essentielle :laisser passer un courant ou l’inter-rompre à la demande, à la manière d’uncommutateur (figure). Son principe debase s’applique donc directement autraitement du langage binaire (0, le cou-rant ne passe pas; 1, il passe) dans descircuits logiques (inverseurs, portes,additionneurs, cellules mémoire).Le transistor, fondé sur le transport desélectrons dans un solide et non plusdans le vide comme dans les tubesélectroniques des anciennes triodes,est composé de trois électrodes (anode,cathode et grille) dont deux servent deréservoirs à électrons : la source, équi-valent du filament émetteur du tubeélectronique, le drain, équivalent de laplaque collectrice, et la grille, le “contrô-leur”. Ces éléments ne fonctionnent pasde la même manière dans les deuxprincipaux types de transistors utilisésaujourd’hui, les transistors bipolaires àjonction, qui ont été les premiers à êtreutilisés, et les transistors à effet de champ(en anglais FET, Field Effect Transistor).Les transistors bipolaires mettent enœuvre les deux types de porteurs decharge, les électrons (charges négati-ves) et les trous (charges positives), etse composent de deux parties de sub-strat semi-conducteur identiquement

Le transistor, composant de base des circuits intégrés

Figure.Un transistor MOS est un commutateur qui permet de commander le passage d’un courantélectrique de la source (S) vers le drain (D) à l’aide d’une grille (G) isolée électriquement du canal de conduction. Le substrat en silicium est noté B (pour Bulk).

commutateur

transistor

source drain

source

source

isol

emen

t

isol

emen

t

isolant de grille

drain

drain

vue en coupe

Lg = longueur de grille

grille de commande

grille

grille

canalsubstrat Si

Lg

D (Suite)

Luce

nt T

echn

olog

ies

Inc.

/Bel

l Lab

s

STM

icro

elec

tron

ics

(1) Figurent dans cette catégorie les transistors de type Schottky ou à barrière Schottky qui sont des transistors à effet de champ comportant unegrille de commande de type métal/semi-conducteur qui améliore la mobilité des porteurs de charge et le temps de réponse au prix d’une plus grandecomplexité.

(2) On parle alors de transistor MOSFET (Metal-Oxide Semiconductor Field Effect Transistor).

Transistor 8 nanomètres développé par l’Alliance Crolles2 réunissantSTMicroelectrronics, Philips et FreescaleSemiconductor.

dopées (p ou n), séparées par une mincecouche de semi-conducteur inversementdopée. L’assemblage de deux semi-conducteurs de types opposés (jonctionp-n) permet de ne faire passer le courantque dans un sens. Qu’ils soient de typen-p-n ou p-n-p, les transistors bipolai-res sont fondamentalement des ampli-ficateurs de courant, commandés par uncourant de grille(1): ainsi dans un trans-istor n-p-n, la tension appliquée à la par-tie p contrôle le passage du courant entreles deux régions n. Les circuits logiquesutilisant des transistors bipolaires, appe-lés TTL (Transistor Transistor Logic), sontplus consommateurs de courant que lestransistors à effet de champ, qui pré-sentent un courant de grille nul en régimestatique et sont commandés par l’appli-cation d’une tension.Ce sont ces derniers, sous la forme MOS(Métal oxyde semi-conducteur), quicomposent aujourd’hui la plupart descircuits logiques du type CMOS (C pourcomplémentaire)(2). Sur un cristal desilicium de type p, deux régions de typen sont créées par dopage de la surface.Appelées là aussi source et drain, cesdeux régions ne sont donc séparées quepar un petit espace de type p, le canal.Sous l’effet d‘une tension positive surune électrode de commande placée

au-dessus du semi-conducteur et quiporte tout naturellement le nom degrille,les trous sont repoussés de sa surfaceoù viennent s’accumuler les quelquesélectrons du semi-conducteur. Un petitcanal de conduction peut ainsi se for-mer entre la source et le drain (figure).Lorsqu’une tension négative est appli-quée sur la grille, isolée électriquementpar une couche d’oxyde, les électronssont repoussés hors du canal. Plus latension positive est élevée, plus larésistance du canal diminue et plus cedernier laisse passer de courant.Dans un circuit intégré, les transistors etles autres composants (diodes, conden-sateurs, résistances) sont d’origine incor-porés au sein d’une “puce” aux fonctionsplus ou moins complexes. Le circuit estconstitué d’un empilement de couchesde matériaux conducteurs ou isolantsdélimitées par lithographie (encadré E,La lithographie clé de la miniaturisation,p. 37). L’exemple le plus emblématiqueest le microprocesseur placé au cœurdes ordinateurs et qui regroupe plusieurscentaines de millions de transistors (dontla taille a été réduite par 10000 depuisles années 1960) et bientôt un milliard,ce qui amène les industriels à fraction-ner le cœur des processeurs en plusieurssous-unités travaillant en parallèle!

Le tout premier transistor.

E

La lithographie optique (ouphotolithographie), appli-

cation majeure de l’interactionparticules/matière, est le procédétraditionnel de fabrication des circuits intégrés. Étape clé de ladéfinition des motifs de ces cir-cuits, elle reste le verrou de leurdéveloppement. La résolutionétant en première approximationdirectement proportionnelle à lalongueur d’onde, la finesse desmotifs a d’abord progressé avecla diminution, qui s’est effectuéepar sauts, de la longueur d’onde λdu rayonnement utilisé.L’opération consiste en l’expositionvia une optique réductrice d’une résinephotosensible à des particules énergé-tiques, depuis les photons ultraviolet (UV)actuellement utilisés jusqu’aux électronsen passant par les photons X et les ions,au travers d’un masque représentant ledessin d’un circuit. Le but ? Transférercette image sur l’empilement de couchesisolantes ou conductrices qui le consti-tueront, déposées précédemment (phasede couchage) sur une plaquette (wafer)de matériau semi-conducteur, en généralde silicium. Ce processus est suivi de ladissolution de la résine exposée à lalumière (développement). Les partiesexposées de la couche initiale peuventêtre alors gravées sélectivement, puis larésine est retirée chimiquement avant ledépôt de la couche suivante. Cette étapede lithographie peut intervenir plus d’unevingtaine de fois au cours de la fabrica-tion d’un circuit intégré (figure).Dans les années 1980, l’industrie de lamicroélectronique utilisait des lampes àmercure délivrant dans l’UV proche (raiesg, h, i), à travers des optiques en quartz,un rayonnement d’une longueur d’ondede 436 nanomètres (nm). Elle gravait ainsides structures d’une largeur de trait de 3 microns (µm). Employées jusqu’au milieudes années 1990, ces lampes ont étéremplacées par des lasers à excimèresémettant dans l’UV lointain (krypton-fluorKrF à 248 nm, puis argon-fluor ArF à193 nm, les photons créés ayant une éner-gie de quelques électronvolts), permet-tant d’atteindre des résolutions de 110 nm, et même inférieures à 90 nm avec de nouveaux procédés.Le Laboratoire d’électronique et de tech-nologie de l’information (Leti) du CEA aété un des pionniers, dans les années1980, dans l’utilisation des lasers en

lithographie et dans la réalisation descircuits intégrés par les lasers à exci-mères, qui constituent aujourd’hui lessources employées pour la productiondes circuits intégrés les plus avancés.Pour l’industrie, l’étape suivante devait êtrele laser F2 (λ = 157 nm), mais cette litho-graphie a été quasiment abandonnée faceà la difficulté de réaliser des optiquesen CaF2, matériau transparent à cettelongueur d’onde.Si la diminution de la longueur d’onde desoutils d’exposition a été le premier facteurà permettre le gain en résolution consi-dérable déjà obtenu, deux autres ont étédéterminants. Le premier a été la mise aupoint de résines photosensibles baséessur des matrices de polymères peu absor-bantes aux longueurs d’onde utilisées etmettant en œuvre des mécanismes de

propagation de l’énergie reçuetoujours plus innovants. Lesecond a consisté en l’améliora-tion des optiques avec une dimi-nution des phénomènes parasitesliés à la diffraction (meilleure qua-lité de surface, augmentation del’ouverture numérique).Au fil des années, la complexitéaccrue des systèmes optiques a ainsi permis d’obtenir des réso-lutions inférieures à la longueurd’onde de la source. Cette évo-lution ne pourra se poursuivre sans une rupture technologiquemajeure, un saut important enlongueur d’onde. Pour les géné-

rations des circuits intégrés dont la réso-lution minimale est comprise entre 80 et50 nm (le prochain “nœud” se situant à 65nm), différentes voies basées sur la projection de particules à la longueurd’onde de plus en plus courte ont été misesen concurrence. Elles mettent respecti-vement en œuvre des rayons X “mous”, en extrême ultraviolet (dans la gamme des 10 nm), des rayons X “durs” (à la lon-gueur d’onde inférieure à 1 nm), des ionsou des électrons.L’étape consistant à atteindre des réso-lutions inférieures à 50 nm conduira às’orienter plutôt vers la nanolithographieà l’aide d’électrons de basse énergie(10 eV) et d’outils plus adaptés comme lemicroscope à effet tunnel ou l’épitaxiepar jets moléculaires (encadré C) pour laréalisation de “super-réseaux”.

La lithographie, clé de la miniaturisation

Zone de photolithographie en salle blanche dans l’usineSTMicroelectronics de Crolles (Isère).

Figure. Les différentes phases du processus de lithographie dont le but est de délimiter les couchesde matériaux conducteurs ou isolants qui constituent un circuit intégré. Cette opération estl’enchaînement d’un étalement de résine photosensible, de la projection du dessin d’un masque parune optique réductrice, suivis de la dissolution de la résine exposée à la lumière (développement).Les parties exposées de la couche initiale peuvent être alors gravées sélectivement, puis la résineest retirée avant le dépôt de la couche suivante.

Art

echn

ique

étalement de la résine

centrifugationséchage

exposition pas à pas(“step and repeal”)

source

masque

optique de projection

gravureretrait résine

dépôt d’unenouvelle couche

développement