L’évolution du système s’est fait selon trois axes : développement des pratiques industrielles et des institutions, avancées des connaissances sur les effets des rayonnements et mise en forme des règles de gestion CE 1996].
Développement des institutions et des pratiques
La première pratique radiologique est l’application des "rayons X" au diagnostic médical : découverte en 1896, utilisation presque banalisée 2 ans après, équipement des armées en 1914. Avant la première guerre des "Röntgen society" existaient et avaient émis des recommandations. Dans les années 20, apparaissent les utilisations du Radium (peinture luminescente, dont les impacts nuisibles allaient être rapidement reconnus). Le premier congrès de radiologie (Londres 1925) décide la mise en place (officialisée à Stockholm en 1928) de la Commission Internationale de Protection Radiologique (d'abord appelée Comité International de Protection contre les Rayons X et le Radium). La CIPR a proposé sa première norme en 1934 (Congrès de radiologie de Zurich). Le secteur de la santé était à cette époque le seul concerné à large échelle.
La seconde guerre mondiale voit la naissance de l'industrie nucléaire militaire (mines, réacteurs, fabrication de combustible, armes, retraitement). Après guerre, le nucléaire civil se développe à son tour, puis d'autres applications des rayonnements (stérilisation, détecteurs de fumée, jauges d'épaisseur). Peu à peu, les problèmes liés à l’industrie nucléaire vont induire les orientations en matière de radioprotection.
La CIPR, reconstituée après les hostilités, s’exprime par des publications formelles à partir de 1955. Depuis, les évolutions sont documentées, argumentées scientifiquement et en termes d'objectif de gestion. Aux Etats-Unis le National Council on Radiation Protection (NCRP), instauré en 1946, joue un rôle similaire sur le continent américain. Les propositions des deux institutions ont toujours été proches. Cependant, c’est en dehors de ce cadre qu'ont été proposées les premières limites pour le public (conférence tripartite sur l’industrie nucléaire E.U., R.U., Canada).
Les années cinquante sont celles des tirs aériens d'armes nucléaires. L'augmentation des retombées, et le tir "Bravo" du 1 mars 1954 (contamination du thonier japonais "Le dragon bienheureux" et de l'atoll de Rongelap dans les îles Bikini) ont conduit les Nations Unies à créer le United Nation Scientific Committee on the Effects of Atomic Radiations (UNSCEAR). Le comité, centré sur la production de connaissances, rassemble les données à la fois sur les effets et sur les sources d'exposition, tant naturelles qu'industrielles, militaires ou médicales. Il procède à des synthèses complètes, et critiques, qui constituent une source d'information sans équivalent pour les autres nuisances.
Une organisation intergouvernementale, l'Agence Internationale de l'Energie Atomique a été crée en 1957. L'Agence publie des "Basic Safety Standards" conjointement avec plusieurs organisations dont le Bureau International du Travail. En Europe, le traité Euratom prévoit la définition de normes de base (première Directive en 1959) dont la dernière édition date de 1996 (Directive 96/29 Euratom du Conseil, du 13 mai 1996).
A ce jour sont donc en place des institutions scientifiques (UNSCEAR) sur lesquelles s'appuient des organisations non gouvernementales (CIPR, NCRP) pour rédiger des recommandations, lesquelles sont reprises sous forme règlementaire, par exemple par l'Union Européenne (il est admis tacitement de fonder les "normes de base" sur les recommandations de la CIPR) ou par des institutions intergouvernementales (AIEA).
De l'identification à la quantification des effets sur la santé
Les effets dits "déterministes", dont l'apparition suit assez rapidement l'exposition aux rayonnements, ont été vite reconnus. La première étude documentant les effets sur la peau date de 1896. La guerre de 1914-1918 a vu un développement massif de la radiologie médicale, et le nombre de lésions radio-induites a été très élevé. Le corps médical et les "Röntgenologistes" ont pris conscience de ce danger. L'apparition de l'erythème cutané (la moins sévère des brûlures) a servi de référence pour la définition des limites pendant une cinquantaine d'années (il existe d'ailleurs toujours une limite "peau").
Les autres effets déterministes (cataractes, baisse de la fertilité ou stérilité, malformations dues aux irradiations in utero) ont été identifiés assez vite. Les travaux de recherche sur ces sujets se poursuivent parce que tous ces effets et leurs mécanismes ne sont pas parfaitement connus, et que l’enjeu est important dans les situations accidentelles ou en irradiation thérapeutique. Cependant, la maîtrise de ces effets soulève relativement peu de controverses car aucun des travaux en cours ne remet en question la pertinence du système de limites.
Leucémies, "maladies du sang" et cancers des os ont été identifiés dans les années vingt, à partir d'observations sur les manipulateurs d'appareils à rayons X et du radium. Le congrès de Stockholm écrivait que “les effets connus dont il convient de se prémunir sont : (a) les lésions des tissus superficiels, (b) les troubles des organes internes et les modifications de la composition du sang” [Norstedt 1929]. Leur mode d'induction n'était pas conçu comme réellement différent de celui des effets aigus et les connaissances de cette époque n'ont pas conduit à des approches nouvelles pour la gestion des risques.
Avant la seconde guerre mondiale, les chercheurs ont identifié les effets héréditaires (appelés “ effets génétiques ” encore aujourd’hui) qui sont des mutations susceptibles d'induire des malformations dans la descendance des individus exposés. Des expérimentations animales avaient mis en valeur ce phénomène (modèle animal de la drosophile). Lors du “ Projet Manhattan ”, ce risque était assez présent à l'esprit des chercheurs. Il a aussi motivé le lancement d'études à Hiroshima et Nagasaki. Aujourd'hui, la part relative de cet effet est jugée plus faible par rapport aux cancers (à peu près 1/3 du total en 1977 pour 1/7 en 1990), et il n'y a toujours pas d'observations épidémiologiques qui viennent conforter l'expérimentation animale Il est à noter que, à cause de la prise en compte de mutations récessives, cet effet a conduit à prendre en compte des expositions collectives et à placer le risque au niveau sociétal. Les effets héréditaires ont ausi conduit à introduire les notions de risque aléatoire ou “ stochastique ”, (l'effet n'est pas lié de façon déterministe à l'irradiation) et d'absence de seuil.
Vers la fin des années cinquante, la CIPR indique que les effets identifiés et contre lesquels il faut se prémunir sont les suivants : [CIPR 1958] ;
Les effets "somatiques aigus" : brûlures.
Les effets "somatiques différés" : leucémies et "centres maladies malignes", cataractes, troubles de la fertilité, réduction de la durée de vie (cette dernière considérée alors comme un des effets les plus plausibles).
Les "dommages génétique", c'est-à-dire les malformations congénitales dans la descendance.
Ainsi, les effets étaient tous identifiés, même si leur hiérarchie a considérablement changé, et si les mécanismes supposés ont fortement évolué (l'atteinte du matériel génétique de la cellule n'était certes pas décrite comme mécanisme de cancérogenèse). Peu de ces effets étaient étayés sur l'épidémiologie, discipline alors balbutiante et peu crédible dans les milieux des biologistes. Les données épidémiologiques d'A. Stewart sur les effets de l'irradiation in utero étaient par exemple mal reçues et les effets les plus redoutés étaient ceux bien mis en évidence par l’expérimentation animale [MUIRHEAD 1989]. Chez l'homme, leucémie et cancer des os étaient reconnus, mais selon une logique plus clinique qu'épidémiologique.
A partir des années soixante, les avancées de l'épidémiologie font évoluer le tableau. La mise en évidence successive de nombreux cancers (peau, thyroïde, sein, poumon, foie, estomac...) fait passer cette pathologie au premier plan, tandis que raccourcissement de la durée de vie et dans une moindre mesure, les effets génétiques, qui n'ont toujours pas pu être mis en évidence par l'épidémiologie, perdent de leur importance. Autre évolution, le débat se focalise sur la quantification du risque. La relation dose-effet linéaire sans seuil est postulée comme outil de gestion et l'enjeu va être d'en estimer les paramètres et d'en critiquer les fondement : les coefficients de risque sont-ils les mêmes aux faibles doses et aux faibles débits de dose ? peut on les "transporter" d'une population à l'autre ?
Les commissions scientifiques font alors un usage important des études épidémiologiques, sans négliger les expérimentations animales et in vitro, qu’elles utilisent parfois (discussion de l’effet du débit de dose, équivalences entre rayonnements). L’étude des survivants d’Hiroshima et Nagasaki joue un rôle majeur dans la construction des relations dose-effet, mais ce rôle n’est pas exclusif. La CIPR, par exemple, ne l’a pas utilisée pour les cancers de la peau, de la thyroïde, du foie et de la surface osseuse [CIPR 1991]. Le comité BEIR a abondamment utilisé d’autres sources en parallèle à celle d’Hiroshima et Nagasaki, en particulier pour le cancer du sein et de la thyroïde [BEIR 1990]. L’UNSCEAR effectue aussi la comparaison systématique des coefficients que l’on peut tirer des différentes études, [UNSCEAR 1988], [UNSCEAR 1994]. Quant à la relation entre le cancer du poumon et le radon, elle est basée sur des études chez les mineurs (uranium, fer, étain).
Les études épidémiologiques peuvent être classées en trois groupes : celles qui ne fournissent aucun résultat significatif ; celles qui sont utilisées pour construire les relations dose-effet ; celles qui fournissent des résultats significatifs mais ne permettent pas la quantification de coefficients de risque. Dans ces dernières, soit l’effet est démontré sans que les doses soient assez bien connues (ex. médecins exposés avant la seconde guerre mondiale, cancers de la thyroïde pour les enfants autour de Tchernobyl), soit les résultats en cours de consolidation (ex : effets sur la leucémie chez les riverains de la rivière Techa, travailleurs de l’industrie nucléaire). Le cas des irradiations in utero est intermédiaire, les doses sont peu précisément connues, mais il y a aussi eu discussion sur les méthodes [MUIRHEAD 1989].
Pour examiner l’ampleur des extrapolations à effectuer, on peut placer les situations d’exposition actuelles et les études épidémiologiques dans un plan où figurent niveau de dose et durée d’exposition (Figure 1). Du fait de l’irradiation naturelle, le public est exposé à des doses de l’ordre de 2,5 à 5 mSv par an, voire au delà, selon le lieu de vie. La dose s’accumule avec la durée de vie et elle peut dépasser les 200 mSv. Pour le radiodiagnostic, la moyenne a peu de sens, car l’exposition, brève, porte sur des organes précis. Généralement basses, les doses à l’organe peuvent être plus élevées pour des examens spécifiques (angiographies, scanners...). Les expositions des travailleurs sont de l’ordre de 2 mSv par an dans l’industrie nucléaire, mais la réglementation permet d’approcher 50 mSv par an ce qui est le cas de quelques personnes.
La notion d’ “ extrapolation aux faibles doses ” apparaît ainsi comme trompeuse. Les niveaux de dose étudiés dans les études épidémiologiques ne requièrent pas des extrapolations très importantes pour passer à des situations d’exposition usuelles. Ainsi la dose moyenne des survivants d’Hiroshima et Nagasaki est de 130 mGy (230 chez les 35 000 personnes à “ dose non nulle ”), et la significativité de l’excès a été reportée dès 50 mSv [PIERCE 1996], même si certains jugent que 100 mSv serait une valeur plus plausible. Chez les enfants dont la thyroïde a été irradiée, le niveau de dose auquel le risque devient significatif est assez bas, par exemple de l’ordre de 100 mGy chez les enfants Israéliens soignés pour la teigne, ou dans la plage 0-300 pour ceux traités pour hypertrophie du thymus [SHORE 1992], [SHORE 1993]. Ces niveaux ont baissé de façon sensible au cours des deux dernières décennies, du fait de la puissance statistique accrue qu’a procuré l’allongement du suivi. Dans les années soixante-dix, aucun excès ne pouvait être mis en évidence en dessous de 1Gy. Au moment de la recommandation de 1990 de la CIPR, ce chiffre était de 0,2 Gy.
En revanche ce sont les débits de dose qui sont très différents (sauf pour le radiodiagnostic), et ce n’est plus sur un ordre de grandeur que porte l’extrapolation mais sur 4 ou 5. L’enjeu des premiers résultats relatifs aux travailleurs du nucléaire, ou sur les riverains de la Techa, ou même les descriptions de cancers de la thyroïde autour de Tchernobyl apparaît alors clairement. Même quand les résultats ne permettent pas d’estimer un coefficient de risque, ils montrent que l’induction de cancer se produit aussi dans ces domaines. L’extrapolation est ainsi non pas plus précise, mais mieux fondée.
Le même exercice peut être réalisé pour les expositions au radon, l’ensemble des études sur les mineurs ayant été synthétisé [NCI 1994]. Les écarts sont alors nettement plus limités tant en débit qu’en niveau. Par exemple, dans sa vie professionnelle, un mineur de l’étude française avait reçu la même dose qu’un habitant des deux ou trois départements les plus exposés sur sa vie entière. Pour valider en population générale les estimations de risque déduites de l’étude des mineurs, des études cas-témoins ont été lancées dans différents pays. Les premiers résultats n’ont pas permis de détecter clairement l’existence d’un effet significatif du radon aux doses couramment rencontrées dans la population générale. Certaines études sont positives, d’autres ne fournissent pas de résultats significatifs. Une meta-analyse récente des huit meilleurs études réalisées dans le domaine, fournit cependant un coefficient de risque proche de celui des mineurs [LUBIN 1997].
Figure 1 : Etudes épidémiologiques et situations d’exposition actuelles ; comparaison des niveaux de doses et durées d’exposition.
L'évolution, au fil des synthèses successives, des estimations du risque de décès par cancer radioinduit est présentée ci-après (tableau I). On note l'importance du choix qu'il faut faire quand on utilise le suivi épidémiologique d'une population qui n'est pas éteinte. Est-ce le risque absolu (excès annuel de cancer par unité de dose et pour 100 000 personnes années) ou le risque relatif (proportion en excès, par unité de dose, par rapport à l'incidence naturelle) qui va rester constant ? La fin des années quatre vingt a permis de clore l'alternative en éliminant le modèle en "risque absolu constant". Les anciennes valeurs de l'Académie des Sciences des Etats-Unis (BEIR) montrent que si le modèle en "risque relatif constant" avait été choisi à l'époque, il en aurait résulté une grande stabilité des estimation de risque. Ce ne fût malheurement pas le cas. On note aussi que les estimations font appel à un "facteur de réduction" de 2 pour les faibles doses dues et les faibles débits.
Tableau 1 : Evolution des coefficients de risque
|
Probabilité de décès par cancer radio-induit : % par Sv
|
|
Irradiation aigue, rayons X et gamma
|
Recommandation pour les « expositions courantes »
|
|
“ risque absolu constant ”
|
“ risque relatif constant ”
|
|
1972 : BEIR I
|
1,2
|
6,2
|
|
1977 : UNSCEAR
|
2,5
|
non estimé
|
|
1977 : CIPR
|
|
|
1,25
|
1980 : BEIR III
|
0,8/2,5
|
2,3/5
|
|
1988 : UNSCEAR
|
4/5
|
7/11
|
|
1990 : BEIR V
|
non retenu
|
8,85
|
|
1990 : CIPR 60
|
|
|
5
|
Dostları ilə paylaş: |