Podcasts sur l'histoire

Aspects particuliers - Histoire

Aspects particuliers - Histoire


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

La guerre navale comprenait plus que les contacts entre les flottes rivales et leurs composantes aériennes. Cela impliquait une surveillance constante des mouvements et des bases ennemis, la destruction des navires. Le sauvetage par airsea, qui maintenait les pertes de personnel au minimum, préservait cet élément de puissance militaire le plus difficile à remplacer et remontait le moral de tous les combattants. Dans toutes ces activités, l'aviation a participé et pour leur accomplissement a développé des techniques spéciales, dont la connaissance est nécessaire pour comprendre la victoire dans le Pacifique. Naval Air Search and Reconnaissance Pearl Harbor a montré le besoin de patrouilles aériennes. La flotte japonaise dont les avions ont causé de tels dommages le matin du 7 décembre 1941, était à portée la veille. Si suffisamment de Catalinas avaient été sortis, la flotte aurait pu être découverte, mais la capacité des forces américaines à surprendre l'ennemi à plusieurs reprises plus tard dans le conflit indiquait qu'il fallait plus que des avions en l'air pour effectuer une recherche adéquate. Par-dessus tout, cela nécessitait un équipement radar spécial et une formation approfondie que les forces américaines ne possédaient pas en 1941. L'amiral Hart aux Philippines a commenté la grande quantité de désinformation qu'il avait reçue sur le réseau d'avertissement. Avant la fin de cette malheureuse campagne dans les Indes orientales, les pilotes et les équipages des avions de patrouille avaient appris leur métier à la dure. Au cours des dernières étapes de l'avancée japonaise, les seules informations disponibles pour les commandants alliés provenaient des Catalinas de l'escadre de patrouille 10 opérant à partir d'appels d'offres dont les mouvements presque quotidiens leur permettaient d'entretenir leurs avions après la destruction des terrains d'atterrissage. Les leçons apprises ont été appliquées ailleurs aussi vite que les avions, l'équipement et les équipages formés pouvaient être obtenus. Bien que les avions de recherche navale n'étaient pas disponibles pour la bataille de la mer de Corail en mai 1942, le mois suivant à Midway, un Catalina fut le premier à signaler la flotte japonaise. Lorsque le même type d'hydravion a été utilisé dans les Salomon, ses limites sont rapidement devenues apparentes. La surprise et le naufrage de quatre croiseurs alliés sur l'île de Savo dans la nuit suivant le débarquement à Guadalcanal auraient pu être évités si la reconnaissance avait été complète. Dans les semaines qui ont suivi, la concentration de combattants ennemis a rendu impossible l'utilisation de Catalinas dans la zone au nord de Guadalcanal. Bien que les forteresses volantes de l'armée aient été utilisées pour les patrouilles, le manque d'équipement spécial et de formation limitait leur utilité. À la fin de 1942, la Marine a commencé à recevoir des Liberators, qui, après d'importantes modifications et du temps pour la formation des équipages navals, sont apparus dans les Salomon au début de l'année suivante. Cet avion avait à la fois la portée pour atteindre les centres d'activité ennemie et la puissance de feu nécessaire pour opérer seul. La possession d'un tel avion a également permis le développement de la reconnaissance photographique. Parce que les Japonais avaient pendant des années exclu les étrangers des zones militaires et en particulier des îles sous mandat, les services de renseignement alliés connaissaient très peu la nature ou l'étendue des installations. Au printemps 1943, le premier escadron photographique, accompagné de personnel expert pour le traitement et l'interprétation, atteint le Pacifique Sud. À partir de ce moment, une vaste reconnaissance photographique a été effectuée avant chaque opération majeure. En plus des unités spécialement équipées, tous les 9 avions de recherche étaient équipés d'un appareil photo et pouvaient compléter l'observation visuelle par des preuves photographiques. La caméra et le radar augmentaient énormément l'efficacité des avions de patrouille navale. Bien que la première fonction de l'aviation de patrouille était de voir et de signaler, les avions de la marine découvraient fréquemment les navires marchands ennemis seuls ou avec seulement une escorte légère. Étant donné que les avions transportaient des mitrailleuses, des bombes et, dans la dernière partie de la guerre, des roquettes et des missiles guidés, ils ont mené des attaques réussies contre des cargos et ont contribué à l'effort qui a finalement étranglé l'industrie japonaise. Les opérations anti-navigation avaient également une importance militaire directe. Dans les régions du sud et du sud-ouest du Pacifique, l'ennemi tentait fréquemment de déplacer des troupes et du ravitaillement la nuit dans de petits navires et des barges, entrant et sortant entre les nombreuses îles et se cachant dans des criques le jour. En détectant ces envois clandestins, la faible vitesse des Catalinas est devenue un atout et l'obscurité a fourni une protection adéquate à leur vulnérabilité. Avec une peinture spéciale et équipés d'un radar, ils sont devenus des chats noirs à la recherche de navires et de barges ennemis partout où ils pouvaient être trouvés. Non seulement ils ont eux-mêmes frappé, mais ils ont également élaboré des techniques pour guider les vedettes lance-torpilles, les destroyers et autres navires légers vers les convois japonais. Les Black Cats ont fait de la reconnaissance un travail de 24 heures sur 24. Dans l'Atlantique, les escadrons de patrouille consacraient leur principal effort à la lutte anti-sous-marine. Parce que les Japonais ont dirigé nombre de leurs engins sous-marins pour approvisionner des garnisons sur des îles contournées, les activités anti-sous-marines ont été éclipsées par d'autres phases de l'aviation de patrouille dans le Pacifique. Tous les escadrons, cependant, ont reçu des instructions sur les techniques spéciales de ce type de guerre, et bien que les avions de patrouille aient contribué à couler seulement cinq sous-marins japonais, la vigilance n'a jamais été relâchée et un haut degré de compétence a été maintenu grâce à l'entraînement. Alors que l'offensive américaine traversait le Pacifique, l'aviation de patrouille l'accompagnait. Les avions de recherche et photographiques ont vérifié et revérifié les installations et les mouvements ennemis. Lorsque les forces porteuses se déplaçaient contre un objectif, elles voulaient obtenir la surprise. Si les avions de recherche Japansee rencontraient des avions porteurs, ils auraient pu déduire la présence de porteurs et transmettre le fait avant d'être abattus. Lors de l'invasion des Mariannes et des opérations ultérieures, les Navy Liberators ont volé le long des flancs et en avance sur les porte-avions, abattant les avions de recherche ennemis. Avant le débarquement aux Philippines, ils ont renversé des bateaux de piquetage japonais à l'est de Formose. Pendant les périodes critiques où les forces amphibies établissaient une tête de pont, les commandants navals avaient besoin d'une connaissance précise de l'approche des unités ennemies. À cette fin, des offres ont accompagné la flotte d'invasion et ont immédiatement commencé à exploiter des hydravions. Bien que cela reste une activité dangereuse tant que l'ennemi avait des avions et des champs en service, cela était nécessaire et en 1943, la Marine disposait du Mariner (PBM), un hydravion plus rapide et plus long avec plus de puissance de feu que le Catalina. À Okinawa, les Mariners ont effectué leurs premières recherches à l'objectif principal avant même que les troupes ne débarquent et, le 7 avril 1945, ont eu l'occasion de démontrer leur valeur. Un sous-marin américain a aperçu la veille une force japonaise construite autour du Yamato, le plus grand cuirassé du monde, se dirigeant vers notre flotte d'invasion. Les avions de recherche ont immédiatement décollé et quelques heures plus tard, ils ont repéré l'ennemi et guidé des avions porteurs dans l'attaque, ce qui a entraîné la destruction du Yamato, d'un croiseur léger et de quatre destroyers. Les Mariners ont non seulement maintenu un contact continu, mais ont débarqué en haute mer pour récupérer le personnel des avions porteurs abattus pendant l'action. Les 6 derniers mois de la guerre ont vu le point culminant de l'aviation de patrouille. De nouveaux types d'avions sont devenus disponibles en nombre croissant. Pour éviter la duplication du travail inhérente à la construction d'un avion puis à sa modification en profondeur. la Marine a conçu une version du Liberator pour répondre à ses exigences particulières et lui a donné le nom nautique Privateer (PB4Y-2). Un avion terrestre bimoteur, le Ventura (PV-1) développé à l'origine pour le travail anti-sous-marin dans l'Atlantique a également été utilisé dans le Pacifique, et un nouveau modèle nommé Harpoon (PV-2) est apparu en 1945. En préparation, mais pas prêt en temps pour les opérations de guerre, était le Neptune

P2V ) dont l'un a surpris le monde en 1946 en volant de Perth, en Australie, à Columbus, dans l'Ohio, une distance de plus de 11 000 milles et le vol le plus long jamais enregistré. Ce qu'un avion avec cette autonomie et cette facilité d'utilisation aurait signifié en 1941 peut facilement être imaginé. Au printemps 1945, la Marine effectua des recherches qui couvraient littéralement le Pacifique des Aléoutiennes à l'Australie, de Seattle à Singapour. La zone entre les Philippines et le continent asiatique par laquelle les fournitures vitales des Indes orientales passaient au Japon était particulièrement importante. Pour couper ces lignes de communication, les avions de patrouille se sont avérés particulièrement utiles non seulement pour couler les navires eux-mêmes, mais aussi pour guider les sous-marins vers des cibles probables et même appeler des bombardiers de l'armée pour disposer d'un convoi trop grand pour qu'un seul avion de patrouille puisse le gérer. Cette campagne coordonnée réduisit la navigation japonaise à un filet si mince qu'à l'été les gros avions traversaient l'Indochine française où ils s'en prenaient aux chemins de fer qui étaient le dernier maillon des communications ennemies avec les régions du sud. Plus au nord, d'autres avions de la marine, basés à Okinawa et Iwo Jima, effectuaient des patrouilles le long des côtes chinoises jusqu'en Corée et autour des côtes des îles japonaises. Ils ont également attaqué les navires avec des bombes, des roquettes et des missiles guidés et ont posé des mines dans les principales voies de navigation. A l'extrême sommet de l'empire japonais, des avions de recherche des Aléoutiennes visitaient régulièrement les îles Kouriles. L'efficacité de ces reconnaissances en termes de surface couverte est illustrée par les cartes pages 12 et 13 qui comparent les recherches en vigueur à la fin de la guerre avec celles au moment du débarquement de Guadalcanal. L'efficacité en termes de résultats obtenus est indiquée ci-dessus. Tout cela a été accompli avec la plus grande économie. A aucun moment la Navy n'a eu en opération dans la zone Pacifique plus de 500 avions de recherche de tous types. Au début de la guerre, la procédure d'exploitation pour le sauvetage des pilotes et des équipages aériens n'était pas au point. D'autre part, un certain nombre de dispositifs de sécurité de base avaient été fournis permettant à un pilote de survivre à la panne inattendue de son avion. Le parachute, le gilet de sauvetage gonflable populairement connu sous le nom de « Mae West » et le radeau de sauvetage en caoutchouc avec son équipement de survie et de signalisation d'urgence faisaient partie de l'équipement standard. Pendant la guerre, les équipements de sécurité ont été régulièrement améliorés et les probabilités de survie étaient toutes en faveur du pilote, qu'il s'agisse d'une simple panne de moteur ou d'un incendie. Au cours de la première moitié de 1942, de nombreux pilotes ont survécu à des accidents dans les zones de combat, mais souvent, peu ou rien n'a pu être fait pour effectuer leur rétablissement. Un certain nombre de sauvetages, cependant, étaient généralement le résultat d'initiatives individuelles, et après la bataille de Midway, Catalinas ramassa de nombreux pilotes. Des opérations de sauvetage organisées se sont développées pendant la campagne des Salomon. Des Catalinas, connus sous le nom de "Dumbos", ont été dépêchés pour récupérer le personnel qui avait été abattu. Au début, il s'agissait d'une tâche accessoire assignée au fur et à mesure que l'occasion se présentait, mais elle s'est développée plus tard à un point où Dumbo a encerclé près de la scène d'un raid. Des positions ont été signalées au fur et à mesure que les avions tombaient, et le Dumbo, souvent protégé par des avions de la grève, a récupéré le personnel. La bravoure des équipes de sauvetage lors de l'atterrissage dans des positions exposées au feu du rivage ennemi est devenue légendaire. Heureusement, aucun personnel de sauvetage n'a été perdu dans de telles opérations. En 1944, dans le Pacifique central, le problème des sauvetages en haute mer devint le 7 AOT 1942-, aigu. Étant donné que seuls les pilotes d'hydravion les plus habiles et les plus expérimentés pouvaient atterrir et redécoller dans les énormes houles, le travail nécessitait autant de matelotage que de savoir-faire, et il est devenu pratique courante d'éviter les atterrissages en haute mer à moins que les conditions soient favorables et qu'il n'y ait pas d'autre sauvetage. mandataire disponible. Les navires, généralement des destroyers, ont effectué les récupérations dans la mesure du possible. Les Catalinas ont continué non seulement à être largement utilisés pour rechercher des survivants, pour larguer du matériel d'urgence et pour survoler le ciel jusqu'à ce qu'un A T T U —

.-.
Exploitation minière aérienne La campagne offensive de pose de mines menée contre le Japon a été peu médiatisée mais les résultats ont été couronnés de succès. Au moins 649 736 tonnes de navires ont été coulées et 1 377 780 autres tonnes endommagées, dont 378 827 étaient toujours hors d'usage à la fin de la guerre. Le total coulé et endommagé représentait un quart de la force d'avant-guerre de la marine marchande japonaise. De plus, 9 destroyers, 4 sous-marins et 36 embarcations auxiliaires sont tombés à la suite d'explosions de mines ; et 2 cuirassés, 2 porte-avions d'escorte. 8 croiseurs, 29 destroyers ou destroyers d'escorte, un sous-marin et 18 autres navires de combat ont été endommagés. Au cours de la guerre, 25 000 mines ont été posées, 21 389 ou 85 % par avion. Sur un total de 4 760 sorties, seuls 55 avions de pose de mines ne sont pas revenus. Bien que des navires de surface et des sous-marins aient également été employés, les avions se sont révélés particulièrement adaptés au mouillage de mines. Ils pouvaient pénétrer dans les ports ennemis et répéter l'opération sans être mis en danger par les mines précédemment semées. Une grande partie du travail pouvait être effectuée la nuit avec relativement peu de perte de précision et avec un secret accru quant à l'emplacement exact des 14 mines, ce qui ajoutait à la difficulté japonaise de balayage. Tous les services aériens américains et alliés y ont participé, utilisant pratiquement tous les types d'avions de bombardement, de l'Avenger (TBF) au Superfortress (B-29) et, bien sûr, l'omniprésent Catalina. Les mines elles-mêmes ont été développées, produites, fournies et entretenues en grande partie par la marine des États-Unis, quelques types britanniques étant utilisés en Birmanie et dans le sud-ouest du Pacifique. Les officiers de guerre des mines ont collaboré à la planification et à l'exécution de toutes les opérations. Bien que l'exploitation minière ait entraîné la destruction d'un grand nombre de navires , , elle a eu d'autres effets importants difficilement déterminables. Cela a forcé les Japonais à fermer les ports jusqu'à ce qu'ils puissent être balayés, provoquant ainsi la perte d'un temps précieux. Même avec relativement peu de mines à la fois, des attaques souvent répétées ont entraîné l'abandon de nombreux ports. Pour empêcher l'ennemi de faire transiter sa flotte par certains mouillages, ils ont été minés lorsque des opérations importantes étaient en cours dans les zones adjacentes. Les eaux peu profondes ont été minées pour forcer la navigation en haute mer où les sous-marins américains pourraient attaquer. Au cours du dernier mois de la guerre, la campagne minière a été étendue aux eaux territoriales pour couper la dernière connexion japonaise avec le continent. Dans la zone extérieure, en particulier si les nombres relativement petits sont utilisés contre des objectifs stratégiques. La campagne a été menée par des avions de la Royal Air Force, de l'Australie et des États-Unis opérant à partir de bases dans le Pacifique Sud-Ouest, en Chine et en Inde. Cela empêcha les Japonais d'utiliser des ports aussi importants que Rangoon pour renforcer leurs troupes en Birmanie et réduisit considérablement leur approvisionnement en pétrole dans des lieux de sulch comme Sura-baya et Balikpapan. Dans le Pacifique Sud et Central, les avions de la Marine ont utilisé des mines à des fins tactiques pour empêcher la flotte japonaise d'utiliser certains ports pendant que des opérations amphibies étaient menées dans les zones voisines. Plus de la moitié des mines navales utilisées pendant la guerre ont été posées par les superforteresses de la vingtième force aérienne dans et autour des îles d'origine, en particulier dans le détroit de Shimonseki et autour de la mer intérieure. Cela a obligé les Japonais à transporter des marchandises du continent asiatique vers les ports du nord de Honshu, d'où une distribution adéquate par chemin de fer était impossible. Pour compliquer le problème de l'ennemi, les corsaires de la marine d'Okinawa ont miné les rives de la mer Jaune jusqu'à la côte sud de la Corée. Le mouvement des navires de plus de 1 000 tonnes a été complètement arrêté. Un mouillage minutieux a empêché l'utilisation de tous les chantiers navals de la marine marchande du Japon, à l'exception de trois, empêchant ainsi la réparation des navires déjà endommagés. Coupé des Indes orientales par l'action aérienne et sous-marine, l'ennemi voit son dernier lien avec le continent asiatique coupé par des mines aériennes. Les services américains et alliés travaillant en étroite collaboration ont complété la mainmise sur l'industrie japonaise. Soutien aérien des opérations amphibies Les missions principales du soutien aérien étaient la défense locale et le soutien direct des troupes à terre. La défense comprenait des patrouilles aériennes de combat pour repousser les raids aériens ennemis, des patrouilles anti-sous-marines volant constamment autour des approches de la zone d'objectif et des missions spéciales telles que la réduction au silence des batteries côtières lourdes. Le soutien direct des troupes consistait principalement en des attaques à l'aide de bombes, de roquettes, de mitrailleuses et d'engins incendiaires contre les troupes et les défenses ennemies. Pour être efficaces, les opérations aériennes défensives et offensives exigeaient un degré élevé de coordination et de contrôle. Cela était pratiquement impossible à obtenir par les canaux de communication normaux des groupes opérationnels, car dans une opération amphibie majeure, jusqu'à trente groupes aériens porteurs différents et des unités aériennes marines basées à terre pouvaient être engagés conjointement dans des opérations. L'organisation du groupe de travail et du groupe de travail impliquait trop d'échelons de commandement pour permettre une action rapide sur les demandes de soutien aérien. Le besoin de développer une doctrine d'appui aérien était évident lors des débarquements sur Guadalcanal et Tulagi en août 1942. Trois porte-avions ont soutenu cette opération, et leurs groupes aériens ont rendu compte à un directeur d'appui aérien dans le vaisseau amiral du commandant amphibie et avant le les débarquements ont effectué des missions confiées par lui. Bien que la Marine ait prévu la nécessité d'équipes de liaison à terre avec les troupes et les ait occasionnellement employées dans des manœuvres en temps de paix, à Guadalcanal, des communications inadéquates et le manque d'expérience ont handicapé la direction des missions de soutien après le débarquement des Marines. La défense aérienne de cette opération laissait également beaucoup à désirer. Le plan prévoyait une patrouille aérienne de combat de chasseurs dirigée par un navire. un point où ils pourraient établir un contact visuel avec les avions ennemis. Le radar du croiseur sur lequel il était embarqué n'ayant pas détecté les raids, le directeur de chasse n'a pas pu mener à bien sa mission. Après les deux premiers jours, les porte-avions ont été obligés de se retirer, laissant la force amphibie et les troupes à terre entièrement sans soutien aérien local jusqu'à ce qu'un aérodrome capturé à Guadalcanal puisse être achevé et approvisionné en avions basés à terre. L'histoire tragique des semaines qui ont suivi, au cours desquelles les avions disponibles pour la défense et pour le soutien des troupes étaient pitoyablement peu nombreux, a clairement démontré l'importance de maintenir un approvisionnement continu en puissance aérienne basée sur des porte-avions pendant la période critique entre le 16 assaut initial et l'éventuel aéronefs basés à terre à terre. C'est à la fin d'août 1942 que les opérations de soutien à terre commencent réellement. La radio a été utilisée pour communiquer les demandes des troupes aux avions d'appui, et de cette expérience est venue une prise de conscience de l'efficacité considérablement accrue obtenue grâce à des officiers de liaison qui travaillaient constamment avec les troupes et connaissaient les problèmes particuliers en jeu. De ce fait, la Marine organise de nombreuses équipes de liaison aérienne qui, contrairement aux officiers débarqués le 7 août, sont spécialement entraînés à accompagner les troupes de première ligne et à relayer leurs demandes au commandement de contrôle. De telles parties ont été utilisées avec succès à Kiska, les Gilberts et dans les opérations ultérieures. Finalement, leurs fonctions ont été reprises par des unités au sein de l'organisation terrestre de la Marine et de l'Armée. Lors de l'assaut de Tarawa le 20 novembre 1943, apparaît pour la première fois l'écrasante concentration de la puissance aérienne qui caractérise toutes les opérations de débarquement dans le Pacifique central. Un total de 17 porte-avions avec un complément de 900 avions ont participé. Huit étaient les nouveaux porte-avions d'escorte relativement lents affectés exclusivement à l'appui aérien tactique, une mission pour laquelle ils étaient bien équipés et qui a permis la libération des porte-avions rapides pour une utilisation contre les bases aériennes ennemies et d'autres cibles éloignées. Au fur et à mesure que les porte-avions d'escorte sont devenus disponibles en nombre croissant, il a été possible d'augmenter considérablement le volume de l'appui aérien. Au cours de la campagne des Gilberts, une unité de contrôle spécialisée de soutien des troupes à flot a également été utilisée, équipée à la fois pour recevoir et filtrer les demandes d'aide et pour attribuer des missions de soutien offensif aux avions au-dessus.Dans chaque opération successive, les unités de contrôle d'appui aérien ont augmenté en taille, en nombre et en complexité, assumant finalement le contrôle complet de chaque avion aéroporté dans la zone d'objectif. Ces unités fonctionnaient d'abord sur des cuirassés et plus tard sur des navires de commandement. Ces derniers étaient des transports reconvertis avec la concentration nécessaire d'équipements de radar et de radiocommunications. Ces navires ont été utilisés comme quartiers généraux conjoints par les commandants amphibies, terrestres et aériens. La direction des chasseurs, le contrôle de l'appui aérien défensif, était effectuée dans les Gilbert à partir de navires désignés de la flotte de débarquement, mais il y avait peu de coordination entre ces navires. Après l'expérience de cette opération, le contrôle de toutes les équipes de chasseurs-directeurs amphibies a été centralisé dans l'organisation de contrôle d'appui aérien existante, de sorte que tous les avions d'appui, offensifs et défensifs, reçoivent la direction et la coordination d'un seul commandement. Les deux activités ont ensuite été physiquement situées dans des salles de contrôle adjacentes sur un navire de commandement, qui était en communication constante avec des unités ou des équipes de contrôle subordonnées, que ce soit sur d'autres navires de commandement, des destroyers de piquetage ou à terre. En janvier 1944, les forces amphibies du Pacifique central envahissent Kwajalein. Le modèle de soutien aérien tactique dans les opérations amphibies du Pacifique est clairement apparu. Bien que les opérations ultérieures aient apporté une complexité et un raffinement croissants dans la technique, aucune dérogation importante à ce modèle n'a été faite. Lors de l'assaut des Mariannes en juin 1944, le contrôle de l'appui aérien employa trois navires de commandement avec des armements supplémentaires disponibles. Le développement de techniques standardisées a permis de passer le contrôle des opérations d'appui aérien sans interruption d'un navire à l'autre. De même, à mesure que les avions basés à terre s'installaient à terre, il s'est avéré possible de transférer les éléments les plus étroitement intégrés aux mouvements de troupes vers un centre de contrôle sur la tête de pont tout en conservant à flot la direction des chasseurs, la patrouille anti-sous-marine et le sauvetage air-mer. Une autre nouvelle technique développée dans les Mariannes était la coordination de l'artillerie à terre, des tirs navals et du soutien aérien. En plaçant les contrôleurs séparés sur le même navire, il était possible de sélectionner le type d'arme le plus efficace (aérien, naval ou d'artillerie) pour chaque demande des troupes au sol. En septembre 1944, des débarquements simultanés ont eu lieu à Morotai et au Palaus. Les transporteurs Esort ont fourni le soutien direct pour les deux. Alors que le débarquement de Morotai était pratiquement sans opposition, une résistance fanatique des positions souterraines et des grottes a été rencontrée à Bloody Nose Ridge sur Peleliu. Dans les combats au corps à corps, des attaques de précision par des avions de soutien ont été menées à une distance de 100 mètres des positions de première ligne, un exploit qui aurait été impossible sans la discipline aérienne rigide et le système de contrôle concentré développé lors des opérations précédentes. Dans la campagne pour la reconquête des Philippines, les avions de l'armée, de la marine et de la marine ont participé ensemble au soutien aérien tactique. Les débarquements dans la région de Leyte-Samar ont été effectués le 20 octobre 1944 par des forces sous le commandement du général d'armée MacArthur. Bien qu'après l'adoucissement des bombardements aériens et navals, les débarquements aient été effectués avec succès sans trop d'opposition au sol, la résistance navale et aérienne japonaise s'est développée à une échelle totale. Au cours de la bataille du golfe de Leyte qui a suivi, le commandant de l'appui aérien a exercé son contrôle au point de détourner les avions des missions de soutien des troupes aux frappes contre les forces de surface ennemies. C'était un exemple remarquable non seulement de la polyvalence des avions porteurs, mais aussi de la souplesse de la puissance aérienne rendue possible par le type d'organisation d'appui aérien mis au point et perfectionné pendant la guerre du Pacifique. Lors du débarquement du golfe de Lingayen en janvier et de l'assaut sur Iwo Jima en février, le soutien aérien a suivi le modèle établi. L'utilisation croissante des attaques Kamikaze par les Japonais, cependant, a souligné la fonction de défense des unités de contrôle d'appui aérien. La plus grande opération amphibie de la guerre du Pacifique, l'assaut et l'occupation d'Okinawa, 17 a vu le soutien aérien à son plus haut niveau. De 20 à 31 porte-avions ont fourni un soutien aérien tactique à 1 213 navires et 451 866 troupes de combat et de service. Au fur et à mesure que les terrains d'atterrissage à Okinawa étaient capturés et activés, un total de plus de 400 avions de la marine et de l'armée basés à terre ont été progressivement ajoutés aux avions embarqués. Les statistiques sont impressionnantes et indicatives de l'étendue de la fonction de support des aéronefs. Pendant 88 jours, 1 904 missions d'appui direct ont été effectuées, impliquant un total de 17 361 sorties offensives individuelles. Une moyenne de 560 avions était en vol chaque jour sur tous les types de missions, y compris les patrouilles défensives. Ces avions ont utilisé 7 141 tonnes de bombes, 49 641 roquettes de 5 pouces, 1 573 réservoirs d'aile contenant 260 000 gallons de napalin, la gelée d'essence flamboyante et 9 300 000 cartouches de calibre 50. Okinawa a fourni un test crucial pour la direction des chasseurs amphibies. Comme aux Philippines, l'intensité de l'opposition japonaise a accru l'importance de la défense aérienne. Avec une superficie d'environ 7 850 milles carrés à couvrir et avec la majorité de la force aérienne ennemie basée à seulement 350 milles à Kyushu au nord et à Formose au sud-ouest, l'ampleur de la responsabilité de la défense aérienne centralisée est évidente. Au cours des 54 premiers jours, 18 675 sorties d'avions de chasse ont été effectuées pour la seule protection de la force amphibie, tandis qu'en plus les porte-avions rapides et de soutien ont fourni leur propre patrouille aérienne combale. Au cours des 82 jours pendant lesquels l'unité de contrôle d'appui aérien des forces amphibies était responsable de la défense de la zone d'objectif. les Japonais ont envoyé 896 raids aériens impliquant plus de 3 089 avions. Parmi ceux-ci, la patrouille aérienne de combat contrôlée centralement au-dessus de la zone d'objectif a abattu 1 067 avions, dont 50 abattus par des chasseurs de nuit. Les tirs antiaériens et les plongées suicide en ont détruit au moins 948 autres, soit un total de 2 015 avions japonais. Ces chiffres n'incluent pas les avions japonais abattus par les patrouilles aériennes de combat au-dessus des 18 porte-avions et par les canons antiaériens des forces porteuses qui n'étaient pas sous contrôle aérien. Des tactiques aériennes ennemies avaient été prévues et 15 stations de piquetage radar, situées de 20 à 95 milles du centre de la zone, avaient été établies pour couvrir les voies d'approche. Chaque station était habitée par un destroyer équipé d'un radar ou un navire plus petit avec une équipe de chasseurs-directeurs à bord. Ces équipes étaient liées à l'organisation centrale de contrôle de la défense aérienne. Ils ont dirigé les patrouilles de chasseurs affectées à leurs secteurs et ont transmis le contrôle et les informations à d'autres unités lorsque les raiders ont quitté leur zone. La ligne de piquetage était si efficace pour intercepter les raids ennemis que les Japonais ont changé de tactique et ont commencé à se concentrer sur les navires de piquetage qui jusqu'ici avaient été négligés pour des cibles plus grandes et plus rentables. Malgré le pilonnage de ces postes de piquetage, qui a fait couler 7 destroyers, 18 gravement endommagés et 6 légèrement endommagés, les chasseurs-directeurs étaient toujours en poste lorsque la responsabilité de la défense aérienne a été transférée à terre au commandant de la défense aérienne 82 jours après le premier débarquements. Le contrôle de l'appui aérien tel qu'il fonctionnait dans la campagne d'Okinawa s'était étendu pour inclure plus que des avions. Il prévoyait l'intégration de toutes les armes disponibles - terrestres, maritimes et aériennes. Pour les forces limitées opérant loin des bases, l'économie dans l'utilisation des armes est devenue obligatoire. Le système de contrôle prévoyait la défense avec un minimum d'avions de chasse, en libérant d'autres pour des missions de soutien. Il a rendu possible l'utilisation d'avions uniquement contre des cibles susceptibles d'être attaquées par les airs et a permis d'utiliser des tirs de canons navals ou d'artillerie de campagne là où ils étaient plus efficaces. Une telle utilisation économique de la puissance est née du concept d'organisation de la Marine qui traitait tous les éléments des forces navales comme faisant partie intégrante de l'ensemble du complexe requis pour le contrôle de la mer. Chacune doit être utilisée de la manière la mieux adaptée à ses caractéristiques inhérentes et toutes doivent être formées de bout en bout en un système de forces de travail unifié. Les unités de contrôle d'appui aérien étaient elles-mêmes une adaptation spécialisée du modèle de groupe de travail pour l'accomplissement d'une mission bien définie. Bien que la capitulation du Japon ait rendu inutile l'assaut amphibie final sur la patrie ennemie, l'opération d'Okinawa a démontré la capacité des États-Unis à transporter ses forces sur de vastes distances maritimes et à les débarquer sur un rivage hostile. La possession de cette technique a modifié l'image stratégique du monde.


Les origines de la foi juive sont expliquées tout au long de la Torah. Selon le texte, Dieu s'est d'abord révélé à un homme hébreu nommé Abraham, qui est devenu connu comme le fondateur du judaïsme.

Les Juifs croient que Dieu a fait une alliance spéciale avec Abraham et que lui et ses descendants étaient un peuple élu qui allait créer une grande nation.

Abraham&# x2019s fils Isaac, et son petit-fils Jacob, sont également devenus des figures centrales de l'histoire juive ancienne. Jacob prit le nom d'Israël, et ses enfants et les générations futures devinrent connus sous le nom d'Israélites.

Plus de 1 000 ans après Abraham, le prophète Moïse a conduit les Israélites hors d'Égypte après avoir été réduits en esclavage pendant des centaines d'années.

Selon les écritures, Dieu a révélé ses lois, connues sous le nom de Dix Commandements, à Moïse au mont Sinaï.


Aspects particuliers - Histoire

Pour démarrer manuellement la vidéo, cliquez sur :

Utilisez ensuite le bouton de retour de votre navigateur pour revenir

C'était vraiment choquant. Je suis venu ici, dans un sens je reconnais maintenant que j'étais très—je venais d'un milieu très bourgeois. Mon doctorat superviseur, en quelque sorte, son père était le Seigneur? (Dr Lane, veuillez confirmer ou clarifier), c'était donc l'atmosphère, très britannique, très genre classe moyenne, très ordinaire, ma famille n'était pas du tout issue de la science. J'étais la première personne de ma famille à aller à l'université et en sciences, c'est donc ce que je savais. Je suis venu ici et j'étais juste étonné, il y avait des gens du monde entier. Il y avait cette atmosphère incroyablement intense. Vous habitiez sur le campus. Vous avez marché sur l'herbe [et] vous étiez dans le laboratoire. C'était juste sauvage ! James Lab, où j'étais, était le plus sauvage de la nature. C'était l'atmosphère, c'était complètement, nous étions les meilleurs, nous étions les plus durs, nous étions les plus durs ici, le reste n'était tout simplement pas là. C'était l'atmosphère que Joe et Mike aimaient, [Bob] Tjian et tous ces gens. Il se passait énormément de choses, c'était une période très excitante. C'était fou.

Je me souviens du premier jour où je suis venu, nous sommes arrivés la nuit, nous avons pris un taxi, nous avions été généralement naïfs et nous venions de monter dans un taxi à JFK [John F. Kennedy International Airport], et le gars s'est perdu et finalement nous sommes arrivés ici, et avec deux grosses valises. Nous sommes restés en fait dans la ferme parce que Rich Roberts était en congé sabbatique et nous avons donc eu son appartement. Puis nous nous sommes réveillés le lendemain matin, avons regardé le Sound [Long Island Sound], j'ai vécu à Londres toute ma vie, je ne pouvais pas le croire ! Je me suis promené dans le laboratoire et dans la zone principale de post-doctorat, il y avait un bureau partagé pour tous les post-doctorants de James. Il y avait un seau d'eau et les post-docs faisaient la queue pour mettre leur tête dans le seau d'eau et combien de temps ils pouvaient garder la tête sous l'eau, n'est-ce pas ? C'était juste une compétition pour voir à quel point ils étaient durs. Je ne pouvais tout simplement pas, je n'avais jamais rien vu de tel de ma vie, j'étais sous le choc !

Il y avait donc une formidable atmosphère de plaisir et de gens. C'était excitant, juste excitant. Cela a continué comme ça tout le temps que vous voyiez des gens se disputer vraiment beaucoup dans le couloir et [dans] un débat intellectuel très intense. Et puis la science – vous faisiez des choses très excitantes et très pratiques. Alors vous y alliez, il y avait un grand réservoir de développement à côté de la cafetière. Vous avez traversé la bibliothèque jusqu'à ce réservoir de développement. Vous marcheriez là-bas et quelqu'un lirait un journal et vous seriez avec cet autorad dégoulinant ?? [autoradiographie] avec votre dernier résultat, vous les croisiez et les gens parlaient. C'était une très bonne ambiance. Des gens formidables et tout simplement très amusants. Je me souviens d'être allé à une soirée avec Walter Schaffner, qui venait de trouver des activateurs, personne n'y croyait, c'était un résultat fou. Il a mis ce morceau d'ADN n'importe où et cela semblait rendre la transcription plus forte et peu importait que ce soit dans un sens ou dans l'autre. Personne n'avait jamais rien vu de tel auparavant. C'était fou. Il était fou. Il est venu à cette fête habillé en Dracula. Il a bu une assiette de cellules HeLa en guise de sang, sacrifice humain. C'était un plaisir énorme. Horaires de travail étranges, nous avions l'habitude d'entrer au travail vers dix heures du matin, de prendre un café et des beignets, puis de parler, puis de déjeuner et ensuite nous commencions à travailler. Mais nous travaillions jusqu'à peut-être deux ou trois heures du soir, puis nous allions au bar à Huntington, puis revenions, nous couchions [et] recommencions. Les techniciens venaient. En fait, ça fonctionnait, c'était de la science presque continue parce que les techniciens arrivaient plus tôt dans la journée et ils mettaient en place des cultures cellulaires ou quelque chose comme ça, la science durait vingt-quatre heures. Je veux dire que les gens étaient dans le laboratoire, vous pouviez entrer dans le laboratoire à tout moment et il y aurait quelqu'un qui travaillait là-bas. Si vous alliez dîner avec quelqu'un d'autre sur le campus, les gens se levaient entre le plat principal et le dessert pour aller allumer ou éteindre leur gel ou faire quelque chose, ils revenaient. C'était donc très amusant.


Contenu

L'étude métaphysique est menée par déduction de ce qui est connu a priori. Comme les mathématiques fondamentales (qui sont parfois considérées comme un cas particulier de la métaphysique appliquée à l'existence du nombre), elle essaie de rendre un compte cohérent de la structure du monde, capable d'expliquer notre perception quotidienne et scientifique du monde, et étant libre de contradictions. En mathématiques, il existe de nombreuses façons différentes de définir les nombres de la même manière, en métaphysique, il existe de nombreuses façons différentes de définir des objets, des propriétés, des concepts et d'autres entités qui sont censées constituer le monde. Alors que la métaphysique peut, en tant que cas particulier, étudier les entités postulées par la science fondamentale telles que les atomes et les supercordes, son sujet central est l'ensemble de catégories telles que l'objet, la propriété et la causalité que ces théories scientifiques supposent. Par exemple : prétendre que « les électrons ont une charge » est une théorie scientifique tout en explorant ce que signifie pour les électrons d'être (ou du moins, d'être perçus comme) « objets », la charge d'être une « propriété », et pour les deux d'exister dans une entité topologique appelée « espace » est la tâche de la métaphysique. [5]

Il y a deux grandes positions sur ce qu'est « le monde » étudié par la métaphysique. Selon le réalisme métaphysique, les objets étudiés par la métaphysique existent indépendamment de tout observateur de sorte que le sujet est la plus fondamentale de toutes les sciences. [6] L'anti-réalisme métaphysique, d'autre part, suppose que les objets étudiés par la métaphysique existent à l'intérieur de l'esprit d'un observateur, de sorte que le sujet devient une forme d'introspection et d'analyse conceptuelle. [6] Cette position est d'origine plus récente. Certains philosophes, notamment Kant, discutent de ces deux « mondes » et de ce qui peut être déduit de chacun. Certains, comme les positivistes logiques, et de nombreux scientifiques, rejettent le réalisme métaphysique comme dénué de sens et invérifiable. D'autres répondent que cette critique s'applique également à tout type de connaissance, y compris la science dure, qui prétend décrire autre chose que le contenu de la perception humaine, et donc que le monde de la perception est le monde objectif dans un certain sens. La métaphysique elle-même suppose généralement qu'une certaine position a été prise sur ces questions et qu'elle peut procéder indépendamment du choix - la question de savoir quelle position adopter appartient plutôt à une autre branche de la philosophie, l'épistémologie.

Ontologie (être) Modifier

Ontologie est la branche de la philosophie qui étudie des concepts tels que l'existence, l'être, le devenir et la réalité. Il comprend les questions de savoir comment les entités sont regroupées en catégories de base et lesquelles de ces entités existent au niveau le plus fondamental. L'ontologie est parfois appelée science de l'être. Il a été caractérisé comme métaphysique générale contrairement à métaphysique spéciale, qui s'intéresse à des aspects plus particuliers de l'être. [7] Les ontologues essaient souvent de déterminer ce que catégories ou types les plus élevés sont et comment ils forment un système de catégories qui fournit une classification globale de toutes les entités. Les catégories couramment proposées comprennent les substances, les propriétés, les relations, les états de fait et les événements. Ces catégories sont caractérisées par des concepts ontologiques fondamentaux, comme particularité et universalité, abstraction et concrétude ou possibilité et nécessité. Le concept de dépendance ontologique, qui détermine si les entités d'une catégorie existent sur le niveau le plus fondamental. Les désaccords au sein de l'ontologie portent souvent sur l'existence d'entités appartenant à une certaine catégorie et, le cas échéant, sur la manière dont elles sont liées à d'autres entités. [8] [9] [10] [11]

Identité et changement Modifier

L'identité est une préoccupation métaphysique fondamentale. Les métaphysiciens enquêtant sur l'identité sont chargés de la question de savoir ce que signifie exactement pour quelque chose d'être identique à lui-même, ou – de manière plus controversée – à quelque chose d'autre. Les problèmes d'identité se posent dans le contexte du temps : qu'est-ce que cela signifie pour quelque chose d'être lui-même à travers deux moments dans le temps ? Comment explique-t-on cela ? Une autre question d'identité se pose lorsque nous demandons quels devraient être nos critères pour déterminer l'identité, et comment la réalité de l'identité s'interface avec les expressions linguistiques.

Les positions métaphysiques que l'on adopte sur l'identité ont des implications de grande envergure sur des questions telles que le problème corps-esprit, l'identité personnelle, l'éthique et le droit.

Quelques Grecs de l'Antiquité ont pris des positions extrêmes sur la nature du changement. Parménide a nié complètement le changement, tandis qu'Héraclite affirmait que le changement était omniprésent : "Aucun homme ne marche jamais deux fois dans la même rivière."

L'identité, parfois appelée identité numérique, est le rapport qu'une chose entretient avec elle-même, et qu'aucune chose n'entretient avec autre chose qu'elle-même (cf. similitude).

Un philosophe moderne qui a marqué durablement la philosophie de l'identité était Leibniz, dont Loi de l'indiscernabilité des identiques est encore largement acceptée aujourd'hui. Il indique que si un objet X est identique à un objet oui, alors toute propriété qui X a, oui aura aussi.

∀ x ∀ y ( x = y → ∀ P ( P ( x ) ↔ P ( y ) ) )

Cependant, il semble que les objets puissent changer avec le temps. Si l'on regardait un arbre un jour, et que l'arbre perdait plus tard une feuille, il semblerait que l'on puisse toujours regarder ce même arbre. Deux théories rivales pour expliquer la relation entre le changement et l'identité sont le perdurantisme, qui traite l'arbre comme une série d'étapes arborescentes, et l'endurantisme, qui soutient que l'organisme - le même arbre - est présent à chaque étape de son histoire.

En faisant appel à des propriétés intrinsèques et extrinsèques, l'endurantisme trouve un moyen d'harmoniser l'identité avec le changement. Les endurantistes pensent que les objets persistent en étant strictement identiques numériquement dans le temps. [12] Cependant, si la loi de Leibniz de l'indiscernabilité des identiques est utilisée pour définir ici l'identité numérique, il semble que les objets doivent être complètement inchangés afin de persister. En faisant la distinction entre les propriétés intrinsèques et les propriétés extrinsèques, les endurantistes affirment que l'identité numérique signifie que, si un objet X est identique à un objet oui, alors n'importe quel intrinsèque propriété qui X a, oui aura aussi. Ainsi, si un objet persiste, intrinsèque ses propriétés sont inchangées, mais extrinsèque les propriétés peuvent changer avec le temps. Outre l'objet lui-même, les environnements et autres objets peuvent changer au fil du temps, les propriétés liées à d'autres objets changeraient même si cet objet ne change pas.

Le perdurantisme peut harmoniser l'identité avec le changement d'une autre manière. Dans le quadridimensionnel, une version du perdurantisme, ce qui persiste est un objet quadridimensionnel qui ne change pas bien que les tranches tridimensionnelles de l'objet puissent différer.

Espace et temps Modifier

Les objets nous apparaissent dans l'espace et le temps, contrairement aux entités abstraites telles que les classes, les propriétés et les relations. Comment l'espace et le temps remplissent-ils cette fonction de fondement des objets ? L'espace et le temps sont-ils eux-mêmes des entités, d'une certaine forme ? Doit-il exister avant les objets ? Comment les définir exactement ? Comment le temps est-il lié au changement doit-il toujours y avoir quelque chose qui change pour que le temps existe ?

Causalité Modifier

La philosophie classique reconnaissait un certain nombre de causes, y compris les causes téléologiques futures. Dans la relativité restreinte et la théorie quantique des champs, les notions d'espace, de temps et de causalité s'entremêlent, les ordres temporels de causalité devenant dépendants de qui les observe. [ citation requise ] Les lois de la physique sont symétriques dans le temps, elles pourraient donc tout aussi bien être utilisées pour décrire le temps comme un recul. Pourquoi alors la percevons-nous comme s'écoulant dans une direction, la flèche du temps, et comme contenant la causalité s'écoulant dans la même direction ?

D'ailleurs, un effet peut-il précéder sa cause ? C'était le titre d'un article de 1954 de Michael Dummett, [13] qui a déclenché une discussion qui se poursuit aujourd'hui. [14] Auparavant, en 1947, C. S. Lewis avait soutenu que l'on peut prier de manière significative concernant le résultat, par exemple, d'un test médical tout en reconnaissant que le résultat est déterminé par des événements passés : « Mon acte libre contribue à la forme cosmique. » [15] De même, certaines interprétations de la mécanique quantique, datant de 1945, impliquent des influences causales remontant dans le temps. [16]

La causalité est liée par de nombreux philosophes au concept de contrefactuel. Dire que A a causé B signifie que si A ne s'était pas produit, B ne serait pas arrivé. Ce point de vue a été avancé par David Lewis dans son article de 1973 "Causation". [17] Ses articles ultérieurs [18] développent davantage sa théorie de la causalité.

La causalité est généralement requise comme fondement de la philosophie des sciences si la science vise à comprendre les causes et les effets et à faire des prédictions à leur sujet.

Nécessité et possibilité Modifier

Les métaphysiciens enquêtent sur les manières dont le monde aurait pu être. David Lewis, dans Sur la pluralité des mondes, a approuvé un point de vue appelé réalisme modal concret, selon lequel les faits sur la façon dont les choses auraient pu être sont rendus vrais par d'autres mondes concrets dans lesquels les choses sont différentes. D'autres philosophes, dont Gottfried Leibniz, ont également traité de l'idée de mondes possibles. Un fait nécessaire est vrai dans tous les mondes possibles. Un fait possible est vrai dans un monde possible, même s'il n'est pas dans le monde réel. Par exemple, il est possible que les chats aient eu deux queues, ou qu'une pomme en particulier n'ait pas existé. En revanche, certaines propositions semblent nécessairement vraies, telles que les propositions analytiques, par exemple, "Tous les célibataires sont célibataires". L'opinion selon laquelle toute vérité analytique est nécessaire n'est pas universellement partagée par les philosophes. Un point de vue moins controversé est que l'identité personnelle est nécessaire, car il semble fondamentalement incohérent de prétendre que tout X n'est pas identique à lui-même, c'est ce qu'on appelle la loi de l'identité, un « premier principe » putatif. De même, Aristote décrit le principe de non-contradiction :

Il est impossible qu'une même qualité appartienne et n'appartienne pas à la même chose. C'est le plus certain de tous les principes. C'est pourquoi ceux qui manifestent se réfèrent à cela comme une opinion ultime. Car il est par nature la source de tous les autres axiomes.

Cosmologie métaphysique et cosmogonie Modifier

La cosmologie métaphysique est la branche de la métaphysique qui traite du monde comme la totalité de tous les phénomènes dans l'espace et le temps. Historiquement, elle a constitué une partie importante du sujet aux côtés de l'ontologie, bien que son rôle soit plus périphérique dans la philosophie contemporaine. Il a eu une large portée et, dans de nombreux cas, a été fondé sur la religion. Les anciens Grecs ne faisaient aucune distinction entre cet usage et leur modèle pour le cosmos. Cependant, à l'époque moderne, il aborde des questions sur l'Univers qui dépassent le cadre des sciences physiques. Elle se distingue de la cosmologie religieuse en ce qu'elle aborde ces questions en utilisant des méthodes philosophiques (par exemple la dialectique).

La cosmogonie traite spécifiquement de l'origine de l'univers. La cosmologie métaphysique moderne et la cosmogonie tentent de répondre à des questions telles que :

  • Quelle est l'origine de l'Univers ? Quelle est sa cause première ? Son existence est-elle nécessaire ? (voir monisme, panthéisme, émanationnisme et créationnisme)
  • Quels sont les composants matériels ultimes de l'Univers ? (voir mécanisme, dynamisme, hylomorphisme, atomisme)
  • Quelle est la raison ultime de l'existence de l'Univers ? Le cosmos a-t-il un but ? (voir téléologie)

Esprit et matière Modifier

Rendre compte de l'existence de l'esprit dans un monde largement composé de matière est un problème métaphysique qui est si vaste et important qu'il est devenu un sujet d'étude spécialisé à part entière, la philosophie de l'esprit.

Le dualisme de substance est une théorie classique dans laquelle l'esprit et le corps sont essentiellement différents, l'esprit ayant certains des attributs traditionnellement attribués à l'âme, et qui crée un puzzle conceptuel immédiat sur la façon dont les deux interagissent. Cette forme de dualisme de substance diffère du dualisme de certaines traditions philosophiques orientales (comme Nyāya), qui postulent également une âme car l'âme, selon eux, est ontologiquement distincte de l'esprit. [19] L'idéalisme postule que les objets matériels n'existent que s'ils sont perçus et uniquement en tant que perceptions. Les adeptes du panpsychisme, une sorte de dualisme de propriété, soutiennent que tout a un aspect mental, mais pas que tout existe dans un esprit. Le monisme neutre postule que l'existence consiste en une seule substance qui en elle-même n'est ni mentale ni physique, mais est capable d'aspects ou d'attributs mentaux et physiques - il implique donc une théorie à double aspect. Au cours du siècle dernier, les théories dominantes ont été inspirées par la science, notamment le monisme matérialiste, la théorie de l'identité de type, la théorie de l'identité symbolique, le fonctionnalisme, le physicalisme réducteur, le physicalisme non réducteur, le matérialisme éliminatif, le monisme anormal, le dualisme de propriété, l'épiphénoménisme et l'émergence.

Déterminisme et libre arbitre Modifier

Le déterminisme est la proposition philosophique selon laquelle chaque événement, y compris la cognition, la décision et l'action humaines, est causalement déterminé par une chaîne ininterrompue d'événements antérieurs. Elle soutient qu'il ne se passe rien qui n'ait déjà été déterminé. La principale conséquence de l'affirmation déterministe est qu'elle remet en cause l'existence du libre arbitre.

Le problème du libre arbitre est le problème de savoir si les agents rationnels exercent un contrôle sur leurs propres actions et décisions. Aborder ce problème nécessite de comprendre la relation entre la liberté et la causalité, et de déterminer si les lois de la nature sont causalement déterministes. Certains philosophes, connus sous le nom d'incompatibilités, considèrent le déterminisme et le libre arbitre comme s'excluant mutuellement. S'ils croient au déterminisme, ils croiront donc que le libre arbitre est une illusion, une position dite Déterminisme dur. Les partisans vont de Baruch Spinoza à Ted Honderich. Henri Bergson a défendu le libre arbitre dans sa thèse Temps et libre arbitre à partir de 1889.

D'autres, étiquetés compatibilistes (ou « déterministes souples »), pensent que les deux idées peuvent être conciliées de manière cohérente. Les adeptes de ce point de vue incluent Thomas Hobbes et de nombreux philosophes modernes tels que John Martin Fischer, Gary Watson, Harry Frankfurt, etc.

Les incompatibilistes qui acceptent le libre arbitre mais rejettent le déterminisme sont appelés libertaires, terme à ne pas confondre avec le sens politique. Robert Kane et Alvin Plantinga sont les défenseurs modernes de cette théorie.

Types naturels et sociaux Modifier

Le premier type de classification de la construction sociale remonte à Platon dans son dialogue Phèdre où il prétend que le système de classification biologique semble sculpter la nature au niveau des articulations. [20] En revanche, des philosophes ultérieurs tels que Michel Foucault et Jorge Luis Borges ont contesté la capacité de classification naturelle et sociale. Dans son essai The Analytical Language of John Wilkins, Borges nous fait imaginer une certaine encyclopédie où les animaux sont divisés en (a) ceux qui appartiennent à l'empereur (b) ceux embaumés (c) ceux qui sont dressés. et ainsi de suite, afin de lever l'ambiguïté des genres naturels et sociaux. [21] Selon l'auteur de la métaphysique Alyssa Ney : "la raison pour laquelle tout cela est intéressant est qu'il semble y avoir une différence métaphysique entre le système Borgesian et celui de Platon". [22] La différence n'est pas évidente mais une classification tente de découper des entités selon une distinction objective alors que l'autre ne le fait pas. Selon Quine, cette notion est étroitement liée à la notion de similitude. [23]

Numéro Modifier

Il existe différentes manières de mettre en place la notion de nombre dans les théories métaphysiques. Les théories platoniciennes postulent le nombre comme une catégorie fondamentale elle-même. D'autres considèrent qu'il s'agit d'une propriété d'une entité appelée « groupe » comprenant d'autres entités ou d'une relation entre plusieurs groupes d'entités, telle que « le nombre quatre est l'ensemble de tous les ensembles de quatre choses ». De nombreux débats autour des universaux sont appliqués à l'étude du nombre et revêtent une importance particulière en raison de son statut de fondement de la philosophie des mathématiques et des mathématiques elles-mêmes.

Métaphysique appliquée Modifier

Bien que la métaphysique en tant qu'entreprise philosophique soit hautement hypothétique, elle a également une application pratique dans la plupart des autres branches de la philosophie, de la science et maintenant aussi de la technologie de l'information. De telles zones supposent généralement une ontologie de base (telle qu'un système d'objets, de propriétés, de classes et d'espace-temps) ainsi que d'autres positions métaphysiques sur des sujets tels que la causalité et l'agence, puis construisent leurs propres théories particulières sur celles-ci.

En science, par exemple, certaines théories sont basées sur l'hypothèse ontologique d'objets possédant des propriétés (comme les électrons ayant une charge) tandis que d'autres peuvent rejeter complètement les objets (comme les théories quantiques des champs, où « l'électronité » étalée devient la propriété de l'espace. le temps plutôt qu'un objet).

Les branches "sociales" de la philosophie telles que la philosophie de la morale, l'esthétique et la philosophie de la religion (qui à leur tour donnent lieu à des sujets pratiques tels que l'éthique, la politique, le droit et l'art) nécessitent toutes des fondements métaphysiques, qui peuvent être considérés comme des branches ou des applications de la métaphysique. Par exemple, ils peuvent postuler l'existence d'entités de base telles que la valeur, la beauté et Dieu. Ensuite, ils utilisent ces postulats pour faire leurs propres arguments sur les conséquences qui en découlent. Lorsque les philosophes dans ces domaines font leurs fondations, ils font de la métaphysique appliquée et peuvent s'appuyer sur ses sujets et méthodes de base pour les guider, y compris l'ontologie et d'autres sujets centraux et périphériques. Comme en science, les fondements choisis dépendront à leur tour de l'ontologie sous-jacente utilisée, de sorte que les philosophes de ces sujets devront peut-être creuser jusqu'à la couche ontologique de la métaphysique pour trouver ce qui est possible pour leurs théories. Par exemple, une contradiction obtenue dans une théorie de Dieu ou de la Beauté pourrait être due à l'hypothèse qu'il s'agit d'un objet plutôt que d'un autre type d'entité ontologique.

Science Modifier

Avant l'histoire moderne des sciences, les questions scientifiques étaient abordées dans le cadre de la philosophie naturelle. A l'origine, le terme « science » (latin : scientifique) signifiait simplement "connaissance". La méthode scientifique, cependant, a transformé la philosophie naturelle en une activité empirique dérivée de l'expérience, à la différence du reste de la philosophie. À la fin du XVIIIe siècle, elle avait commencé à être appelée « science » pour la distinguer des autres branches de la philosophie. Depuis lors, la science et la philosophie sont considérées comme des disciplines distinctes. Par la suite, la métaphysique désignait une enquête philosophique de caractère non empirique sur la nature de l'existence. [24]

La métaphysique continue de demander "pourquoi" là où la science s'arrête. Par exemple, toute théorie de la physique fondamentale est basée sur un ensemble d'axiomes, qui peuvent postuler l'existence d'entités telles que des atomes, des particules, des forces, des charges, des masses ou des champs. Énoncer de tels postulats est considéré comme la « fin » d'une théorie scientifique. La métaphysique prend ces postulats et explore ce qu'ils signifient en tant que concepts humains. Par exemple, toutes les théories de la physique exigent-elles l'existence d'espace et de temps, d'objets [25] et de propriétés ? Ou peuvent-ils être exprimés en utilisant uniquement des objets, ou uniquement des propriétés ? Les objets doivent-ils conserver leur identité dans le temps ou peuvent-ils changer ? [26] S'ils changent, sont-ils toujours le même objet ? Les théories peuvent-elles être reformulées en convertissant des propriétés ou des prédicats (tels que "rouge") en entités (telles que des champs de rougeur ou de rougeur) ou des processus ("il y a du rougeur là-bas" apparaît dans certaines langues humaines à la place de l'utilisation de propriétés ). La distinction entre objets et propriétés est-elle fondamentale pour le monde physique ou pour notre perception de celui-ci ?

De nombreux travaux récents ont été consacrés à l'analyse du rôle de la métaphysique dans la théorisation scientifique. Alexandre Koyré a mené ce mouvement, déclarant dans son livre Métaphysique et mesure, "Ce n'est pas en suivant l'expérience, mais en devançant l'expérience, que l'esprit scientifique progresse." [27] Que les propositions métaphysiques puissent influencer la théorisation scientifique est la contribution la plus durable de John Watkins à la philosophie. Depuis 1957 [28] [29] « il a montré comment certaines propositions non testables et donc, selon les idées popperiennes, non empiriques, peuvent néanmoins influencer le développement de théories proprement testables et donc scientifiques. Ces résultats profonds dans logique élémentaire appliquée. représentait un correctif important aux enseignements positivistes sur l'absurdité de la métaphysique et des prétentions normatives". [30] Imre Lakatos a soutenu que toutes les théories scientifiques ont un "noyau dur" métaphysique essentiel pour la génération d'hypothèses et d'hypothèses théoriques. [31] Ainsi, selon Lakatos, « les changements scientifiques sont liés à de vastes révolutions métaphysiques cataclysmiques ». [32]

Un exemple de biologie de la thèse de Lakatos : David Hull a soutenu que les changements dans le statut ontologique du concept d'espèce ont été au centre du développement de la pensée biologique d'Aristote à Cuvier, Lamarck et Darwin. L'ignorance de Darwin de la métaphysique l'a rendu plus difficile pour lui de répondre à ses critiques parce qu'il ne pouvait pas facilement saisir en quoi leurs vues métaphysiques sous-jacentes différaient des siennes. [33]

En physique, de nouvelles idées métaphysiques sont apparues en rapport avec la mécanique quantique, où les particules subatomiques n'ont sans doute pas le même type d'individualité que les particularités dont la philosophie s'est traditionnellement intéressée. [34] Aussi, l'adhésion à une métaphysique déterministe face au défi posé par le principe d'incertitude de la mécanique quantique a conduit des physiciens comme Albert Einstein à proposer des théories alternatives qui retiennent le déterminisme. [35] A.N. Whitehead est célèbre pour avoir créé une métaphysique de la philosophie des processus inspirée de l'électromagnétisme et de la relativité restreinte. [36]

En chimie, Gilbert Newton Lewis a abordé la nature du mouvement, affirmant qu'un électron ne devrait pas être considéré comme se déplaçant lorsqu'il n'a aucune des propriétés du mouvement. [37]

Katherine Hawley note que même la métaphysique d'une théorie scientifique largement acceptée peut être contestée si l'on peut affirmer que les présupposés métaphysiques de la théorie ne contribuent en rien à son succès prédictif. [38]

Théologie Modifier

Il existe une relation entre les doctrines théologiques et la réflexion philosophique dans la philosophie d'une religion (comme la philosophie chrétienne), les réflexions philosophiques sont strictement rationnelles. Sur cette façon de voir les deux disciplines, si au moins une des prémisses d'un argument est dérivée de la révélation, l'argument tombe dans le domaine de la théologie sinon il tombe dans le domaine de la philosophie. [39] [40]

Méta-métaphysique est la branche de la philosophie qui s'occupe des fondements de la métaphysique. [41] Un certain nombre de personnes ont suggéré qu'une grande partie ou la totalité de la métaphysique devrait être rejetée, une position méta-métaphysique connue sous le nom de déflationnisme métaphysique [a] [42] ou déflationnisme ontologique. [43]

Au 16ème siècle, Francis Bacon a rejeté la métaphysique scolastique et a fortement plaidé en faveur de ce qu'on appelle maintenant l'empirisme, considéré plus tard comme le père de la science empirique moderne.Au 18ème siècle, David Hume a pris une position forte, arguant que toute connaissance authentique implique soit des mathématiques, soit des faits et que la métaphysique, qui va au-delà, est sans valeur. Il conclut son Enquête sur la compréhension humaine (1748) avec la déclaration :

Si nous prenons en main n'importe quel volume [livre] de la divinité ou de la métaphysique scolaire, par exemple, demandons : Contient-il un raisonnement abstrait concernant la quantité ou le nombre ? Non. Contient-il un raisonnement expérimental concernant les faits et l'existence ? Non. Remettez-le donc aux flammes : car il ne peut contenir que du sophisme et de l'illusion. [44]

Trente-trois ans après Hume Demande paru, Emmanuel Kant a publié son Critique de la raison pure. Bien qu'il ait suivi Hume en rejetant une grande partie de la métaphysique précédente, il a fait valoir qu'il y avait encore de la place pour une certaine synthèse a priori connaissances, concernées par les faits mais pouvant être obtenues indépendamment de l'expérience. [45] Ceux-ci comprenaient les structures fondamentales de l'espace, du temps et de la causalité. Il a également plaidé pour la liberté de la volonté et l'existence de "choses en elles-mêmes", les objets ultimes (mais inconnaissables) de l'expérience.

Wittgenstein a introduit le concept selon lequel la métaphysique pourrait être influencée par les théories de l'esthétique, via la logique, vis. un monde composé de "faits atomiques". [46] [47]

Dans les années 1930, A.J. Ayer et Rudolf Carnap ont approuvé la position de Hume Carnap a cité le passage ci-dessus. [48] ​​Ils ont soutenu que les déclarations métaphysiques ne sont ni vraies ni fausses mais dénuées de sens puisque, selon leur théorie de la vérifiabilité du sens, une déclaration n'a de sens que s'il peut y avoir des preuves empiriques pour ou contre elle. Ainsi, alors qu'Ayer rejetait le monisme de Spinoza, il évitait un engagement en faveur du pluralisme, la position contraire, en considérant les deux points de vue comme sans signification. [49] Carnap a pris une ligne similaire avec la controverse sur la réalité du monde extérieur. [50] Alors que le mouvement du positivisme logique est maintenant considéré comme mort (avec Ayer, un partisan majeur, admettant dans une interview télévisée de 1979 que « presque tout était faux »), [51] il a continué à influencer le développement de la philosophie. [52]

Arguant contre de tels rejets, le philosophe scolastique Edward Feser a soutenu que la critique de Hume de la métaphysique, et en particulier la fourchette de Hume, est « notoirement auto-réfutable ». [53] Feser soutient que la fourchette de Hume elle-même n'est pas une vérité conceptuelle et n'est pas testable empiriquement.

Certains philosophes vivants, comme Amie Thomasson, ont soutenu que de nombreuses questions métaphysiques peuvent être résolues simplement en regardant la façon dont nous utilisons les mots. en comparant les théories selon un éventail de vertus théoriques inspirées des sciences, telles que la simplicité et le pouvoir explicatif. [54]

Le mot « métaphysique » dérive des mots grecs (metá, "après") et φυσικά (physika, "la physique"). [55] Il a d'abord été utilisé comme titre pour plusieurs des travaux d'Aristote, parce qu'ils étaient d'habitude anthologisés après les travaux sur la physique dans les éditions complètes. Le préfixe méta- ("après") indique que ces travaux viennent "après" les chapitres de physique. Cependant, Aristote lui-même n'appelait pas le sujet de ces livres métaphysique : il l'appelait "première philosophie" (grec : φιλοσοφία latin : philosophia prima). On pense que l'éditeur des œuvres d'Aristote, Andronicus de Rhodes, a placé les livres sur la première philosophie juste après un autre ouvrage, La physique, et les a appelés τὰ μετὰ τὰ φυσικὰ βιβλία (tà metà tà physikà biblia) ou "les livres [qui viennent] après les [livres sur] la physique".

Cependant, une fois le nom donné, les commentateurs ont cherché d'autres raisons pour son opportunité. Par exemple, Thomas d'Aquin l'a compris comme faisant référence à l'ordre chronologique ou pédagogique de nos études philosophiques, de sorte que les « sciences métaphysiques » signifieraient « celles que nous étudions après avoir maîtrisé les sciences qui traitent du monde physique ». [56]

Le terme a été mal interprété par d'autres commentateurs médiévaux, qui pensaient qu'il signifiait « la science de ce qui est au-delà du physique ». [57] Suivant cette tradition, le préfixe méta- a été plus récemment préfixé aux noms des sciences pour désigner les sciences supérieures traitant de problèmes ultérieurs et plus fondamentaux : d'où métamathématiques, métaphysiologie, etc. [58]

Une personne qui crée ou développe des théories métaphysiques est appelée un métaphysicien. [59]

Le langage courant utilise également le mot « métaphysique » pour un référent différent de celui du présent article, à savoir pour les croyances en des entités arbitraires non physiques ou magiques. Par exemple, « guérison métaphysique » pour désigner la guérison au moyen de remèdes magiques plutôt que scientifiques. [60] Cet usage découle des diverses écoles historiques de métaphysique spéculative qui opéraient en postulant toutes sortes d'entités physiques, mentales et spirituelles comme bases de systèmes métaphysiques particuliers. La métaphysique en tant que sujet n'exclut pas les croyances en de telles entités magiques mais ne les promeut pas non plus. C'est plutôt le sujet qui fournit le vocabulaire et la logique avec lesquels de telles croyances peuvent être analysées et étudiées, par exemple pour rechercher des incohérences à la fois en elles-mêmes et avec d'autres systèmes acceptés tels que la science.

Préhistoire Modifier

L'archéologie cognitive telle que l'analyse des peintures rupestres et d'autres arts et coutumes préhistoriques suggère qu'une forme de philosophie pérenne ou de métaphysique chamanique peut remonter à la naissance de la modernité comportementale, partout dans le monde. Des croyances similaires se retrouvent dans les cultures actuelles de « l'âge de pierre » telles que les aborigènes australiens. La philosophie pérenne postule l'existence d'un monde spirituel ou conceptuel à côté du monde quotidien, et des interactions entre ces mondes pendant le rêve et le rituel, ou lors de journées spéciales ou dans des lieux spéciaux. Il a été avancé que la philosophie pérenne constituait la base du platonisme, Platon articulant, plutôt que créant, des croyances largement répandues beaucoup plus anciennes. [61] [62]

Âge du bronze Modifier

Les cultures de l'âge du bronze telles que l'ancienne Mésopotamie et l'Égypte ancienne (ainsi que des cultures de structure similaire mais chronologiquement plus tardives telles que les Mayas et les Aztèques) ont développé des systèmes de croyances basés sur la mythologie, les dieux anthropomorphes, le dualisme esprit-corps, [ citation requise ] et un monde des esprits, [ citation requise ] pour expliquer les causes et la cosmologie. Ces cultures semblent s'être intéressées à l'astronomie et peuvent avoir associé ou identifié les étoiles à certaines de ces entités. Dans l'Egypte ancienne, la distinction ontologique entre ordre (maat) et chaos (Isfet) semble avoir été importante. [63]

Grèce présocratique Modifier

Le premier philosophe grec nommé, selon Aristote, est Thalès de Milet, au début du 6ème siècle avant notre ère. Il a utilisé des explications purement physiques pour expliquer les phénomènes du monde plutôt que les explications mythologiques et divines de la tradition. On pense qu'il a posé l'eau comme le seul principe sous-jacent (ou Arche dans la terminologie aristotélicienne ultérieure) du monde matériel. Ses confrères, mais plus jeunes Milétiens, Anaximandre et Anaximène, ont également posé des principes sous-jacents monistes, à savoir respectivement apeiron (l'indéfini ou illimité) et l'air.

Une autre école était les Eleatics, dans le sud de l'Italie. Le groupe a été fondé au début du Ve siècle avant notre ère par Parménide et comprenait Zénon d'Élée et Mélisse de Samos. Méthodologiquement, les Eleatics étaient largement rationalistes et considéraient les normes logiques de clarté et de nécessité comme critères de vérité. La doctrine principale de Parménide était que la réalité est un être unique, immuable et universel. Zeno utilisé réduction à l'absurde, pour démontrer le caractère illusoire du changement et du temps dans ses paradoxes.

Héraclite d'Éphèse, en revanche, a fait du changement un point central, enseignant que « toutes choses coulent ». Sa philosophie, exprimée en brefs aphorismes, est assez cryptique. Par exemple, il a également enseigné l'unité des contraires.

Démocrite et son professeur Leucippe, sont connus pour avoir formulé une théorie atomique pour le cosmos. [64] Ils sont considérés comme des précurseurs de la méthode scientifique.

Chine classique Modifier

La métaphysique dans la philosophie chinoise remonte aux premiers concepts philosophiques chinois de la dynastie Zhou tels que Tian (Ciel) et Yin et Yang. Le IVe siècle av. [65] Une autre école philosophique apparue à cette époque était l'École des naturalistes qui considérait le principe métaphysique ultime comme le Taiji, la « polarité suprême » composée des forces du Yin et du Yang qui étaient toujours dans un état de changement cherchant l'équilibre. Une autre préoccupation de la métaphysique chinoise, en particulier du taoïsme, est la relation et la nature de l'être et du non-être (vous 有 et wu 無). Les taoïstes soutenaient que l'ultime, le Tao, était aussi le non-être ou la non-présence. [65] D'autres concepts importants étaient ceux de génération spontanée ou vitalité naturelle (Ziran) et de « résonance corrélative » (Ganying).

Après la chute de la dynastie Han (220 CE), la Chine a vu l'essor de l'école néo-taoïste Xuanxue. Cette école a été très influente dans le développement des concepts de la métaphysique chinoise ultérieure. [65] La philosophie bouddhiste est entrée en Chine (vers le 1er siècle) et a été influencée par les concepts métaphysiques chinois indigènes pour développer de nouvelles théories. Les écoles de philosophie indigènes Tiantai et Huayen ont maintenu et réinterprété les théories indiennes du shunyata (vide, kong 空) et de la nature de Bouddha (Fo xing 佛性) dans la théorie de l'interpénétration des phénomènes. Les néo-confuciens comme Zhang Zai sous l'influence d'autres écoles ont développé les concepts de « principe » (li) et d'énergie vitale (qi).

Grèce classique Modifier

Socrate et Platon Modifier

Socrate est connu pour son approche dialectique ou questionnante de la philosophie plutôt que pour une doctrine métaphysique positive.

Son élève, Platon est célèbre pour sa théorie des formes (qu'il met dans la bouche de Socrate dans ses dialogues). Le réalisme platonicien (également considéré comme une forme d'idéalisme) [66] est considéré comme une solution au problème des universaux, c'est-à-dire que ce que des objets particuliers ont en commun, c'est qu'ils partagent une forme spécifique qui est universelle à tous les autres de leur genre respectif.

La théorie a un certain nombre d'autres aspects:

  • Épistémologique : la connaissance des Formes est plus certaine que de simples données sensorielles.
  • Éthique : La Forme du Bien établit une norme objective de moralité.
  • Temps et Changement : Le monde des Formes est éternel et immuable. Le temps et le changement n'appartiennent qu'au monde sensoriel inférieur. "Le temps est une image mouvante de l'Eternité".
  • Objets abstraits et mathématiques : Les nombres, les figures géométriques, etc., existent indépendamment de l'esprit dans le Monde des Formes.

Le platonisme s'est développé en néoplatonisme, une philosophie avec une saveur monothéiste et mystique qui a survécu jusqu'au début de l'ère chrétienne.

Aristote Modifier

L'élève de Platon, Aristote, a beaucoup écrit sur presque tous les sujets, y compris la métaphysique. Sa solution au problème des universaux contraste avec celle de Platon. Alors que les formes platoniciennes sont existentiellement apparentes dans le monde visible, les essences aristotéliciennes habitent dans les particuliers.

La potentialité et l'actualité [67] sont les principes d'une dichotomie qu'Aristote a utilisée tout au long de ses travaux philosophiques pour analyser le mouvement, la causalité et d'autres problèmes.

La théorie aristotélicienne du changement et de la causalité s'étend à quatre causes : matérielle, formelle, efficace et finale. La cause efficiente correspond à ce qu'on appelle aujourd'hui une cause simplicité. Les causes finales sont explicitement téléologiques, un concept maintenant considéré comme controversé en science. [68] La dichotomie Matière/Forme allait devenir très influente dans la philosophie ultérieure en tant que distinction substance/essence.

Les arguments introductifs d'Aristote Métaphysique, Livre I, tournent autour des sens, de la connaissance, de l'expérience, de la théorie et de la sagesse. Le premier objectif principal de la Métaphysique est de tenter de déterminer comment l'intellect « passe de la sensation à travers la mémoire, l'expérience et l'art, à la connaissance théorique ». [69] Aristote prétend que la vue nous donne la capacité de reconnaître et de mémoriser des expériences, tandis que le son nous permet d'apprendre.

Inde classique Modifier

Plus sur la philosophie indienne : la philosophie hindoue

Sāṃkhya Modifier

Sāṃkhya est un ancien système de philosophie indienne basé sur un dualisme impliquant les principes ultimes de la conscience et de la matière. [70] Elle est décrite comme l'école rationaliste de la philosophie indienne. [71] Il est le plus lié à l'école de yoga de l'hindouisme et sa méthode a été la plus influente sur le développement du bouddhisme primitif. [72]

Le Sāmkhya est une philosophie énumérationniste dont l'épistémologie accepte trois des six pramanas (preuves) comme le seul moyen fiable d'acquérir des connaissances. Ceux-ci inclus pratyakṣa (la perception), anumāṇa (inférence) et śabda (āptavacana, mot/témoignage de sources fiables). [73] [74] [75]

Samkhya est fortement dualiste. [76] [77] [78] La philosophie Sāmkhya considère l'univers comme consistant en deux réalités puruṣa (conscience) et prakṛti (matière). Jiva (un être vivant) est cet état dans lequel puruṣa est lié à prakṛti sous une forme ou une autre. [79] Cette fusion, affirment les savants Samkhya, a conduit à l'émergence de bouddhi (« conscience spirituelle ») et ahaṅkāra (conscience du moi). L'univers est décrit par cette école comme un univers créé par des entités purusa-prakṛti imprégnées de diverses permutations et combinaisons d'éléments, de sens, de sentiments, d'activité et d'esprit diversement énumérés. [79] Pendant l'état de déséquilibre, un ou plusieurs constituants submergent les autres, créant une forme de servitude, en particulier de l'esprit. La fin de ce déséquilibre, la servitude est appelée libération, ou moksha, par l'école Samkhya. [80]

L'existence de Dieu ou de l'être suprême n'est pas directement affirmée, ni considérée comme pertinente par les philosophes Samkhya. Sāṃkhya nie la cause finale d'Ishvara (Dieu). [81] Tandis que l'école Samkhya considère les Vedas comme une source fiable de connaissance, c'est une philosophie athée selon Paul Deussen et d'autres savants. [82] [83] Une différence clé entre les écoles de Samkhya et de Yoga, les érudits de l'État, [83] [84] est que l'école de Yoga accepte une " divinité personnelle, mais essentiellement inactive " ou " un dieu personnel ". [85]

Samkhya est connu pour sa théorie des guṇas (qualités, tendances innées). [86] Guṇa, déclare-t-il, sont de trois types : sattva être bon, compatissant, éclairant, positif et constructif rajas est une activité, chaotique, passionnelle, impulsive, potentiellement bonne ou mauvaise et tamas étant la qualité de l'obscurité, de l'ignorance, destructrice, léthargique, négative. Tout, toutes les formes de vie et les êtres humains, déclarent les érudits Samkhya, ont ces trois guṇas, mais dans des proportions différentes. L'interaction de ces guṇas définit le caractère de quelqu'un ou de quelque chose, de la nature et détermine le progrès de la vie. [87] [88] La théorie Samkhya des guṇas a été largement discutée, développée et raffinée par diverses écoles de philosophies indiennes, y compris le bouddhisme. [89] Les traités philosophiques de Samkhya ont également influencé le développement de diverses théories de l'éthique hindoue. [72]

Vedanta Modifier

La réalisation de la nature de l'identité de soi est l'objet principal du système Vedanta de la métaphysique indienne. Dans les Upanishads, la conscience de soi n'est pas la conscience de soi indicielle à la première personne ou la conscience de soi qui est autoréférence sans identification, [90] et pas non plus la conscience de soi qui, en tant que sorte de désir, est satisfaite par un autre. conscience de soi. [91] C'est la réalisation du Soi, la réalisation du Soi consistant en la conscience qui conduit tout le reste. [92]

Le mot Conscience de soi dans les Upanishads signifie la connaissance de l'existence et de la nature de Brahman. Cela signifie la conscience de notre propre être réel, la réalité primaire. [93] La conscience de soi signifie la connaissance de soi, la connaissance de Prajna, c'est-à-dire de Prana qui est Brahman. [94] Selon les Upanishads, l'Atman ou Paramatman est phénoménalement inconnaissable, c'est l'objet de la réalisation. L'Atman est inconnaissable dans sa nature essentielle il est inconnaissable dans sa nature essentielle car c'est le sujet éternel qui sait tout y compris lui-même. L'Atman est le connaisseur et aussi le connu. [95]

Les métaphysiciens considèrent que le Soi est soit distinct de l'Absolu, soit entièrement identique à l'Absolu. Ils ont donné forme à trois écoles de pensée – a) la École dualiste, b) le École quasi-dualiste et c) le École moniste, à la suite de leurs diverses expériences mystiques. Prakrti et Atman, lorsqu'ils sont traités comme deux aspects séparés et distincts, forment la base du dualisme du Shvetashvatara Upanishad. [96] Le quasi-dualisme se reflète dans le monothéisme vaishnavite de Ramanuja et le monisme absolu, dans les enseignements d'Adi Shankara. [97]

La conscience de soi est le quatrième état de conscience ou Turiya, les trois premiers étant Vaisvanara, Taijasa et Prajna. Ce sont les quatre états de conscience individuelle.

Il y a trois étapes distinctes menant à la réalisation du Soi. La première étape consiste à appréhender mystiquement la gloire du Soi en nous comme si nous en étions distincts. La deuxième étape consiste à identifier le « je-dedans » avec le Soi, que nous sommes dans la nature essentielle entièrement identiques au Soi pur. La troisième étape consiste à réaliser que l'Atman est Brahman, qu'il n'y a pas de différence entre le Soi et l'Absolu. La Quatrième étape consiste à réaliser "Je suis l'Absolu" - Aham Brahman Asmi. La cinquième étape consiste à réaliser que Brahman est le « Tout » qui existe, ainsi que ce qui n'existe pas. [98]

Métaphysique bouddhiste Modifier

Dans la philosophie bouddhiste, il existe diverses traditions métaphysiques qui ont proposé différentes questions sur la nature de la réalité basées sur les enseignements du Bouddha dans les premiers textes bouddhistes.Le Bouddha des premiers textes ne se concentre pas sur les questions métaphysiques mais sur la formation éthique et spirituelle et, dans certains cas, il rejette certaines questions métaphysiques comme inutiles et indéterminées Avyakta, qu'il recommande de mettre de côté. Le développement de la métaphysique systématique a surgi après la mort du Bouddha avec la montée des traditions Abhidharma. [99] Les écoles bouddhistes Abhidharma ont développé leur analyse de la réalité à partir du concept de dharmas qui sont les événements physiques et mentaux ultimes qui composent l'expérience et leurs relations les uns avec les autres. Noa Ronkin a qualifié leur approche de « phénoménologique ». [100]

Les traditions philosophiques ultérieures incluent l'école Madhyamika de Nagarjuna, qui a développé davantage la théorie de la vacuité (shunyata) de tous les phénomènes ou dharmas qui rejette tout type de substance. Cela a été interprété comme une forme d'anti-fondationalisme et d'anti-réalisme qui considère la réalité comme n'ayant pas d'essence ou de fondement ultime. [101] L'école Yogacara a entre-temps promu une théorie appelée « conscience seulement » (vijnapti-matra) qui a été interprétée comme une forme d'idéalisme ou de phénoménologie et nie la scission entre la conscience elle-même et les objets de la conscience. [102]

Métaphysique islamique Modifier

Des idées majeures dans la métaphysique soufie ont entouré le concept de weḥdah (وحدة) signifiant « unité », ou en arabe توحيد tawhid. waḥdat al-wujūd signifie littéralement « l'unité d'existence » ou « l'unité d'être ». L'expression a été traduite par « panthéisme ». [103] Wujud (c'est-à-dire l'existence ou la présence) se réfère ici au wujud d'Allah (comparez tawhid). D'autre part, waḥdat ash-shuhūd, qui signifie « apparentisme » ou « monothéisme du témoignage », soutient que Dieu et sa création sont entièrement séparés.

La scolastique et le Moyen Âge Modifier

En savoir plus sur la philosophie et la métaphysique médiévales : Philosophie médiévale

Entre 1100 et 1500 environ, la philosophie en tant que discipline a pris place dans le système d'enseignement de l'église catholique, connu sous le nom de scolastique. La philosophie scolastique s'inscrivait dans un cadre établi mêlant théologie chrétienne et enseignements aristotéliciens. Bien que les orthodoxies fondamentales ne soient pas communément remises en cause, il existe néanmoins de profonds désaccords métaphysiques, notamment sur le problème des universaux, qui engagent Duns Scot et Pierre Abélard. Guillaume d'Ockham est connu pour son principe de parcimonie ontologique.

Le rationalisme continental Modifier

Au début de la période moderne (XVIIe et XVIIIe siècles), la construction du système portée de la philosophie est souvent liée au rationaliste méthode de la philosophie, c'est-à-dire la technique de déduction de la nature du monde par la raison pure. Les concepts scolastiques de substance et d'accident ont été employés.

    proposé dans son Monadologie une pluralité de substances n'interagissant pas. est célèbre pour son dualisme des substances matérielles et mentales. croyait que la réalité était une substance unique de Dieu ou de la nature.

Wolff Modifier

Christian Wolff a divisé la philosophie théorique en une ontologie ou philosophia prima comme une métaphysique générale, [104] qui se pose en préalable à la distinction des trois « métaphysiques spéciales » [105] sur l'âme, le monde et Dieu : [106] [107] la psychologie rationnelle, [108] [109] rationnelle cosmologie [110] et théologie rationnelle. [111] Les trois disciplines sont dites empiriques et rationnelles parce qu'elles sont indépendantes de la révélation. Ce schéma, qui est la contrepartie de la tripartition religieuse en créature, création et Créateur, est mieux connu des étudiants en philosophie par le traitement que Kant en a traité dans le Critique de la raison pure. Dans la "Préface" de la 2e édition du livre de Kant, Wolff est défini "le plus grand de tous les philosophes dogmatiques". [112]

Empirisme britannique Modifier

L'empirisme britannique a marqué en quelque sorte une réaction à la métaphysique rationaliste et systémique, ou spéculatif métaphysique comme on l'appelait péjorativement. Le sceptique David Hume a déclaré que la plupart des métaphysiques devraient être livrées aux flammes (voir ci-dessous). Hume était connu parmi ses contemporains comme l'un des premiers philosophes à douter ouvertement de la religion, mais il est mieux connu maintenant pour sa critique de la causalité. John Stuart Mill, Thomas Reid et John Locke étaient moins sceptiques, adoptant un style métaphysique plus prudent basé sur le réalisme, le bon sens et la science. D'autres philosophes, notamment George Berkeley, ont été conduits de l'empirisme à la métaphysique idéaliste.

Kant Modifier

Immanuel Kant a tenté une grande synthèse et révision des tendances déjà mentionnées : la philosophie scolastique, la métaphysique systématique et l'empirisme sceptique, sans oublier la science naissante de son époque. Comme les constructeurs de systèmes, il disposait d'un cadre général dans lequel toutes les questions devaient être traitées. Comme Hume, qui l'a fait sortir de son « sommeil dogmatique », il se méfiait des spéculations métaphysiques et mettait également beaucoup l'accent sur les limites de l'esprit humain. Kant a décrit son changement dans la métaphysique loin de faire des réclamations sur un monde nouménal objectif, vers l'exploration du monde phénoménal subjectif, comme une révolution copernicienne, par analogie (bien que dans la direction opposée à) le passage de Copernic de l'homme (le sujet) au soleil (un objet) au centre de l'univers.

Kant considérait les philosophes rationalistes comme visant une sorte de connaissance métaphysique qu'il définissait comme la a priori synthétique— c'est une connaissance qui ne vient pas des sens (elle est a priori) mais qui concerne néanmoins la réalité (synthétique). Dans la mesure où il s'agit de la réalité, il diffère des propositions mathématiques abstraites (qu'il nomme apriori analytique), et étant a priori distinct de la connaissance empirique et scientifique (qu'il nomme synthétique aposteriori). La seule connaissance synthétique a priori que nous puissions avoir est de savoir comment nos esprits organisent les données des sens que le cadre organisateur est l'espace et le temps, qui pour Kant n'ont pas d'existence indépendante de l'esprit, mais fonctionnent néanmoins uniformément chez tous les humains. La connaissance a priori de l'espace et du temps est tout ce qui reste de la métaphysique telle qu'elle est traditionnellement conçue. Là est une réalité au-delà des données ou des phénomènes sensoriels, qu'il appelle le royaume des noumènes cependant, nous ne pouvons pas la connaître telle qu'elle est en elle-même, mais seulement telle qu'elle nous apparaît. Il se permet de spéculer que les origines du Dieu phénoménal, de la moralité et du libre arbitre force existent dans le royaume nouménal, mais ces possibilités doivent être comparées à son inconnaissance fondamentale pour les humains. Bien qu'il se considérât comme s'étant débarrassé de la métaphysique, dans un sens, il a généralement été considéré rétrospectivement comme ayant sa propre métaphysique et comme le début de la conception analytique moderne du sujet.

Philosophie moderne tardive Modifier

La philosophie du XIXe siècle a été largement influencée par Kant et ses successeurs. Schopenhauer, Schelling, Fichte et Hegel ont tous fourni leurs propres versions panoramiques de l'idéalisme allemand, la propre mise en garde de Kant concernant la spéculation métaphysique et la réfutation de l'idéalisme, étant tombée à l'eau. L'impulsion idéaliste s'est poursuivie au début du XXe siècle avec des idéalistes britanniques tels que F. H. Bradley et J. M. E. McTaggart. Les disciples de Karl Marx ont adopté la vision dialectique de l'histoire de Hegel et l'ont transformée en matérialisme.

Philosophie analytique primitive et positivisme Modifier

À l'époque où l'idéalisme dominait en philosophie, la science avait fait de grands progrès. L'arrivée d'une nouvelle génération de philosophes à l'esprit scientifique a entraîné une forte baisse de la popularité de l'idéalisme au cours des années 1920.

La philosophie analytique a été dirigée par Bertrand Russell et G. E. Moore. Russell et William James ont essayé de faire un compromis entre l'idéalisme et le matérialisme avec la théorie du monisme neutre.

La philosophie du début au milieu du vingtième siècle a vu une tendance à rejeter les questions métaphysiques comme dénuées de sens. La force motrice derrière cette tendance était la philosophie du positivisme logique telle qu'elle était adoptée par le Cercle de Vienne, qui soutenait que le sens d'un énoncé était sa prédiction des résultats observables d'une expérience, et donc qu'il n'est pas nécessaire de postuler l'existence d'un quelconque objets autres que ces observations perceptives.

À peu près à la même époque, les pragmatiques américains évoluaient à mi-chemin entre le matérialisme et l'idéalisme. La métaphysique de construction de systèmes, avec une nouvelle inspiration de la science, a été relancée par A. N. Whitehead et Charles Hartshorne.

Philosophie continentale Modifier

Les forces qui ont façonné la philosophie analytique – la rupture avec l'idéalisme et l'influence de la science – étaient beaucoup moins importantes en dehors du monde anglophone, bien qu'il y ait eu un virage partagé vers la langue. La philosophie continentale a continué dans une trajectoire du post-kantisme.

La phénoménologie de Husserl et d'autres était conçue comme un projet de collaboration pour l'investigation des caractéristiques et de la structure de la conscience communes à tous les humains, conformément aux a priori synthétiques de Kant sur le fonctionnement uniforme de la conscience. Il était officiellement neutre vis-à-vis de l'ontologie, mais devait néanmoins engendrer un certain nombre de systèmes métaphysiques. Le concept d'intentionnalité de Brentano deviendrait largement influent, y compris sur la philosophie analytique.

Heidegger, auteur de L'être et le temps, se considérait comme se recentrant sur l'être-qu-être, introduisant le nouveau concept de Dasein Dans le processus. Se classant comme existentialiste, Sartre a écrit une étude approfondie de L'être et le néant.

Le mouvement du réalisme spéculatif marque un retour au réalisme pur et simple.

Métaphysique des processus Modifier

Il y a deux aspects fondamentaux de l'expérience quotidienne : le changement et la persévérance. Jusqu'à récemment, la tradition philosophique occidentale a sans doute défendu la substance et la persistance, à quelques exceptions notables près, cependant. Selon les penseurs du processus, la nouveauté, le flux et l'accident comptent et constituent parfois la réalité ultime.

Au sens large, la métaphysique des processus est aussi ancienne que la philosophie occidentale, avec des figures telles que Héraclite, Plotin, Duns Scot, Leibniz, David Hume, Georg Wilhelm Friedrich Hegel, Friedrich Wilhelm Joseph von Schelling, Gustav Theodor Fechner, Friedrich Adolf Trendelenburg, Charles Renouvier, Karl Marx, Ernst Mach, Friedrich Wilhelm Nietzsche, Émile Boutroux, Henri Bergson, Samuel Alexander et Nicolas Berdyaev. Il semble que la question reste ouverte de savoir si les grandes figures « continentales » telles que feu Martin Heidegger, Maurice Merleau-Ponty, Gilles Deleuze, Michel Foucault ou Jacques Derrida doivent être incluses. [113]

Au sens strict, la métaphysique des processus peut se limiter aux travaux de quelques pères fondateurs : G. W. F. Hegel, Charles Sanders Peirce, William James, Henri Bergson, A. N. Whitehead et John Dewey. D'un point de vue européen, il y avait une influence whiteheadienne très importante et précoce sur les travaux de chercheurs exceptionnels tels que Émile Meyerson (1859-1933), Louis Couturat (1868-1914), Jean Wahl (1888-1974), Robin George Collingwood ( 1889-1943), Philippe Devaux (1902-1979), Hans Jonas (1903-1993), Dorothy M. Emmett (1904-2000), Maurice Merleau Ponty (1908-1961), Enzo Paci (1911-1976), Charlie Dunbar Broad (1887-1971), Wolfe Mays (1912-2005), Ilya Prigogine (1917-2003), Jules Vuillemin (1920-2001), Jean Ladrière (1921-2007), Gilles Deleuze (1925-1995), Wolfhart Pannenberg ( 1928-2014) et Reiner Wiehl (1929-2010). [114]

Philosophie analytique contemporaine Modifier

Alors que la philosophie analytique primitive avait tendance à rejeter la théorisation métaphysique, sous l'influence du positivisme logique, elle a été relancée dans la seconde moitié du XXe siècle. Des philosophes tels que David K. Lewis et David Armstrong ont développé des théories élaborées sur une gamme de sujets tels que les universaux, la causalité, la possibilité et la nécessité et les objets abstraits. Cependant, l'objectif de la philosophie analytique est généralement loin de la construction de systèmes englobants et vers une analyse approfondie des idées individuelles.

Parmi les développements qui ont conduit au renouveau de la théorisation métaphysique, il y avait l'attaque de Quine contre la distinction analytique-synthétique, qui était généralement considérée comme sapant la distinction de Carnap entre les questions d'existence internes à un cadre et celles externes à celui-ci. [115]

La philosophie de la fiction, le problème des noms vides et le débat sur le statut de l'existence en tant que propriété sont tous venus d'une relative obscurité sous les projecteurs, tandis que des problèmes éternels tels que le libre arbitre, les mondes possibles et la philosophie du temps ont eu une nouvelle vie. leur a soufflé. [116] [117]

Le point de vue analytique est de la métaphysique comme étudiant des concepts humains phénoménaux plutôt que de faire des réclamations sur le monde nouménal, de sorte que son style se confond souvent avec la philosophie du langage et la psychologie introspective. Comparé à la construction de systèmes, cela peut sembler très aride, stylistiquement similaire à la programmation informatique, aux mathématiques ou même à la comptabilité (car un objectif commun déclaré est de « rendre compte » des entités dans le monde). [ citation requise ]


Contenu

La relativité restreinte a été initialement proposée par Albert Einstein dans un article publié le 26 septembre 1905 intitulé "Sur l'électrodynamique des corps en mouvement". [p 1] L'incompatibilité de la mécanique newtonienne avec les équations de l'électromagnétisme de Maxwell et, expérimentalement, le résultat nul de Michelson-Morley (et les expériences similaires ultérieures) ont démontré que l'éther luminifère hypothétiquement historiquement n'existait pas. Cela a conduit au développement d'Einstein de la relativité restreinte, qui corrige la mécanique pour gérer les situations impliquant tous les mouvements et en particulier ceux à une vitesse proche de celle de la lumière (connue sous le nom de vitesses relativistes ). Aujourd'hui, la relativité restreinte s'est avérée être le modèle de mouvement le plus précis à n'importe quelle vitesse lorsque les effets gravitationnels et quantiques sont négligeables. [3] [4] Même ainsi, le modèle newtonien est toujours valable comme une approximation simple et précise à de faibles vitesses (par rapport à la vitesse de la lumière), par exemple, les mouvements quotidiens sur Terre.

La relativité restreinte a un large éventail de conséquences qui ont été vérifiées expérimentalement. [5] Ils incluent la relativité de la simultanéité, la contraction de longueur, la dilatation du temps, la formule d'addition de vitesse relativiste, l'effet Doppler relativiste, la masse relativiste, une limite de vitesse universelle, l'équivalence masse-énergie, la vitesse de causalité et la précession de Thomas. [1] [2] Elle a par exemple remplacé la notion conventionnelle d'un temps universel absolu par la notion d'un temps dépendant du référentiel et de la position spatiale. Plutôt qu'un intervalle de temps invariant entre deux événements, il existe un intervalle d'espace-temps invariant. Combinés à d'autres lois de la physique, les deux postulats de la relativité restreinte prédisent l'équivalence de la masse et de l'énergie, telle qu'elle est exprimée dans la formule d'équivalence masse-énergie E = mc 2 > , où c < displaystyle c>est la vitesse de la lumière dans le vide. [6] [7] Il explique aussi comment les phénomènes d'électricité et de magnétisme sont liés. [1] [2]

Une caractéristique déterminante de la relativité restreinte est le remplacement des transformations galiléennes de la mécanique newtonienne par les transformations de Lorentz. Le temps et l'espace ne peuvent pas être définis séparément l'un de l'autre (comme on le pensait auparavant). Au contraire, l'espace et le temps sont entrelacés en un seul continuum appelé « espace-temps ». Des événements qui se produisent en même temps pour un observateur peuvent se produire à des moments différents pour un autre.

Jusqu'à ce qu'Einstein développe la relativité générale, introduisant un espace-temps courbe pour incorporer la gravité, l'expression « relativité restreinte » n'était pas utilisée. Une traduction parfois utilisée est « relativité restreinte », « spécial » signifie en réalité « cas spécial ». [p 2] [p 3] [p 4] [note 1] Certains des travaux d'Albert Einstein en relativité restreinte sont construits sur les travaux antérieurs de Hendrik Lorentz et Henri Poincaré. La théorie est devenue essentiellement complète en 1907. [4]

La théorie est "spéciale" en ce qu'elle ne s'applique que dans le cas particulier où l'espace-temps est "plat", c'est-à-dire que la courbure de l'espace-temps, décrite par le tenseur énergie-impulsion et provoquant la gravité, est négligeable. [8] [note 2] Afin de s'adapter correctement à la gravité, Einstein a formulé la relativité générale en 1915. La relativité restreinte, contrairement à certaines descriptions historiques, s'adapte aux accélérations aussi bien qu'aux cadres de référence en accélération. [9] [10]

Tout comme la relativité galiléenne est maintenant acceptée comme une approximation de la relativité restreinte valable pour les faibles vitesses, la relativité restreinte est considérée comme une approximation de la relativité générale valable pour les champs gravitationnels faibles, c'est-à-dire à une échelle suffisamment petite (par exemple, lorsque les forces de marée sont négligeables) et dans des conditions de chute libre. La relativité générale, cependant, incorpore la géométrie non-euclidienne afin de représenter les effets gravitationnels comme la courbure géométrique de l'espace-temps. La relativité restreinte est limitée à l'espace-temps plat connu sous le nom d'espace de Minkowski. Tant que l'univers peut être modélisé comme une variété pseudo-riemannienne, un cadre invariant de Lorentz qui respecte la relativité restreinte peut être défini pour un voisinage suffisamment petit de chaque point dans cet espace-temps courbe.

Galileo Galilei avait déjà postulé qu'il n'y a pas d'état de repos absolu et bien défini (pas de référentiels privilégiés), un principe désormais appelé principe de relativité de Galilée. Einstein a étendu ce principe pour qu'il rende compte de la vitesse constante de la lumière, [11] un phénomène qui avait été observé dans l'expérience de Michelson-Morley. Il a également postulé que cela vaut pour toutes les lois de la physique, y compris les lois de la mécanique et de l'électrodynamique. [12]

Albert Einstein: Notes autobiographiques [p 5]

Einstein a discerné deux propositions fondamentales qui semblaient être les plus sûres, indépendamment de la validité exacte des lois (alors) connues de la mécanique ou de l'électrodynamique. Ces propositions étaient la constance de la vitesse de la lumière dans le vide et l'indépendance des lois physiques (notamment la constance de la vitesse de la lumière) du choix du système inertiel. Dans sa présentation initiale de la relativité restreinte en 1905, il a exprimé ces postulats comme : [p 1]

  • Le principe de relativité - les lois par lesquelles les états des systèmes physiques subissent des changements ne sont pas affectées, que ces changements d'état se rapportent à l'un ou à l'autre de deux systèmes en mouvement de translation uniforme l'un par rapport à l'autre. [p 1]
  • Le principe de la vitesse de la lumière invariante - ".la lumière se propage toujours dans l'espace vide avec une vitesse définie [vitesse] c qui est indépendant de l'état de mouvement du corps émetteur" (extrait de la préface). [p 1] C'est-à-dire que la lumière dans le vide se propage à la vitesse c (une constante fixe, indépendante de la direction) dans au moins un système de coordonnées inertielles (le "système stationnaire"), quel que soit l'état de mouvement de la source lumineuse.

La constance de la vitesse de la lumière a été motivée par la théorie de l'électromagnétisme de Maxwell et le manque de preuves de l'éther luminifère. Il existe des preuves contradictoires sur la mesure dans laquelle Einstein a été influencé par le résultat nul de l'expérience Michelson-Morley. [13] [14] En tout cas, le résultat nul de l'expérience Michelson-Morley a aidé la notion de la constance de la vitesse de la lumière à gagner une acceptation répandue et rapide.

La dérivation de la relativité restreinte dépend non seulement de ces deux postulats explicites, mais aussi de plusieurs hypothèses tacites (faites dans presque toutes les théories de la physique), y compris l'isotropie et l'homogénéité de l'espace et l'indépendance des tiges de mesure et des horloges de leur histoire passée. [p 6]

Suite à la présentation originale d'Einstein de la relativité restreinte en 1905, de nombreux ensembles différents de postulats ont été proposés dans diverses dérivations alternatives. [15] Cependant, l'ensemble de postulats le plus courant reste ceux employés par Einstein dans son article original. Une déclaration plus mathématique du Principe de Relativité faite plus tard par Einstein, qui introduit le concept de simplicité non mentionné ci-dessus est :

Principe de relativité restreinte: Si un système de coordonnées K est choisi de telle sorte que, par rapport à lui, les lois physiques s'appliquent dans leur forme la plus simple, le même les lois sont valables par rapport à tout autre système de coordonnées K′ se déplaçant en translation uniforme relativement à K. [16]

Henri Poincaré a fourni le cadre mathématique de la théorie de la relativité en prouvant que les transformations de Lorentz sont un sous-ensemble de son groupe de transformations de symétrie de Poincaré. Einstein a dérivé plus tard ces transformations de ses axiomes.

De nombreux articles d'Einstein présentent des dérivations de la transformation de Lorentz basées sur ces deux principes. [p 7]

Cadres de référence et mouvement relatif Modifier

Les cadres de référence jouent un rôle crucial dans la théorie de la relativité. Le terme référentiel tel qu'utilisé ici est une perspective d'observation dans l'espace qui ne subit aucun changement de mouvement (accélération), à partir de laquelle une position peut être mesurée selon 3 axes spatiaux (donc au repos ou à vitesse constante). De plus, un référentiel a la capacité de déterminer des mesures du temps des événements à l'aide d'une « horloge » (tout dispositif de référence avec une périodicité uniforme).

Un événement est une occurrence à laquelle on peut attribuer un moment et un emplacement uniques dans l'espace par rapport à un référentiel : c'est un « point » dans l'espace-temps. Étant donné que la vitesse de la lumière est constante en relativité quel que soit le cadre de référence, les impulsions lumineuses peuvent être utilisées pour mesurer sans ambiguïté les distances et se référer aux moments où les événements se sont produits à l'horloge, même si la lumière met du temps à atteindre l'horloge après l'événement s'est passé.

Par exemple, l'explosion d'un pétard peut être considérée comme un « événement ». Nous pouvons spécifier complètement un événement par ses quatre coordonnées spatio-temporelles : Le temps d'occurrence et sa localisation spatiale en 3 dimensions définissent un point de référence. Appelons ce référentiel S.

En théorie de la relativité, nous voulons souvent calculer les coordonnées d'un événement à partir de référentiels différents. Les équations qui relient les mesures effectuées dans différents cadres sont appelées équations de transformation.

Configuration standard Modifier

Pour mieux comprendre comment les coordonnées spatio-temporelles mesurées par les observateurs dans différents cadres de référence se comparent, il est utile de travailler avec une configuration simplifiée avec des cadres dans un configuration standard. [17] : 107 Avec précaution, cela permet une simplification des calculs sans perte de généralité dans les conclusions auxquelles on parvient. Sur la figure 2-1, deux cadres de référence galiléens (c'est-à-dire des cadres à 3 espaces conventionnels) sont affichés en mouvement relatif. La trame S appartient à un premier observateur O, et la trame S' (prononcé "S prime" ou "S tiret") appartient à un deuxième observateur O'.

  • Les X, oui, z les axes du cadre S sont orientés parallèlement aux axes amorcés respectifs du cadre S'.
  • Le cadre S′ se déplace, pour simplifier, dans un seul sens : le X-direction du cadre S avec une vitesse constante v tel que mesuré dans le cadre S.
  • Les origines des repères S et S′ coïncident lorsque le temps t = 0 pour la trame S et t′ = 0 pour la trame S′.

Puisqu'il n'y a pas de cadre de référence absolu dans la théorie de la relativité, un concept de « mouvement » n'existe pas strictement, car tout peut être en mouvement par rapport à un autre cadre de référence. Au lieu de cela, deux trames qui se déplacent à la même vitesse dans la même direction sont dites déménager. Par conséquent, S et S' ne sont pas déménager.

Absence de référentiel absolu Modifier

Le principe de relativité, qui stipule que les lois physiques ont la même forme dans chaque référentiel inertiel, remonte à Galilée et a été incorporé dans la physique newtonienne. Cependant, à la fin du 19ème siècle, l'existence d'ondes électromagnétiques a conduit certains physiciens à suggérer que l'univers était rempli d'une substance qu'ils appelaient « éther », qui, selon eux, agirait comme le milieu à travers lequel ces ondes, ou vibrations, propagé (à bien des égards semblable à la façon dont le son se propage dans l'air). L'éther était considéré comme un cadre de référence absolu par rapport auquel toutes les vitesses pouvaient être mesurées, et pouvait être considéré comme fixe et immobile par rapport à la Terre ou à un autre point de référence fixe. L'éther était censé être suffisamment élastique pour supporter les ondes électromagnétiques, tandis que ces ondes pouvaient interagir avec la matière, mais n'offrant aucune résistance aux corps qui le traversaient (sa propriété était de permettre aux ondes électromagnétiques de se propager). Les résultats de diverses expériences, dont l'expérience Michelson-Morley en 1887 (vérifiée par la suite avec des expériences plus précises et innovantes), ont conduit à la théorie de la relativité restreinte, en montrant que l'éther n'existait pas. [18] La solution d'Einstein était d'écarter la notion d'un éther et l'état de repos absolu. En relativité, tout référentiel se déplaçant avec un mouvement uniforme observera les mêmes lois de la physique. En particulier, la vitesse de la lumière dans le vide est toujours mesurée comme étant c, même lorsqu'il est mesuré par plusieurs systèmes qui se déplacent à des vitesses différentes (mais constantes).

Relativité sans le deuxième postulat Modifier

A partir du seul principe de relativité sans supposer la constance de la vitesse de la lumière (c'est-à-dire en utilisant l'isotropie de l'espace et la symétrie impliquée par le principe de relativité restreinte), on peut montrer que les transformations de l'espace-temps entre les référentiels inertiels sont soit euclidiennes, galiléennes , ou Lorentzien. Dans le cas lorentzien, on peut alors obtenir une conservation d'intervalle relativiste et une certaine vitesse limite finie. Les expériences suggèrent que cette vitesse est la vitesse de la lumière dans le vide. [p 8] [19]

Approches alternatives à la relativité restreinte Modifier

Einstein a systématiquement basé la dérivation de l'invariance de Lorentz (le noyau essentiel de la relativité restreinte) sur les deux principes de base de la relativité et de l'invariance de la vitesse de la lumière. Il a écrit:

L'intuition fondamentale pour la théorie de la relativité restreinte est la suivante : les hypothèses relativité et invariance de la vitesse de la lumière sont compatibles si des relations d'un nouveau type ("transformation de Lorentz") sont postulées pour la conversion des coordonnées et des temps des événements. Le principe universel de la théorie de la relativité restreinte est contenu dans le postulat : Les lois de la physique sont invariantes par rapport aux transformations de Lorentz (pour le passage d'un système inertiel à tout autre système inertiel choisi arbitrairement). C'est un principe contraignant pour les lois naturelles. [p 5]

Ainsi, de nombreux traitements modernes de la relativité restreinte la fondent sur le seul postulat de la covariance universelle de Lorentz, ou, de manière équivalente, sur le seul postulat de l'espace-temps de Minkowski. [page 9] [page 10]

Plutôt que de considérer la covariance universelle de Lorentz comme un principe dérivé, cet article la considère comme le postulat fondamental de la relativité restreinte. L'approche traditionnelle à deux postulats de la relativité restreinte est présentée dans d'innombrables manuels universitaires et présentations populaires. [20] Les manuels commençant par le postulat unique de l'espace-temps de Minkowski incluent ceux de Taylor et Wheeler [21] et de Callahan. [22] C'est aussi l'approche suivie par les articles Wikipédia Spacetime et Minkowski diagram.

Transformation de Lorentz et son inverse Modifier

Définissez un événement pour avoir des coordonnées spatio-temporelles (t,X,oui,z) dans le système S et (t′,X′,oui′,z′) dans un référentiel se déplaçant à une vitesse v par rapport à ce référentiel, S. Ensuite, la transformation de Lorentz précise que ces coordonnées sont liées de la manière suivante :

est le facteur de Lorentz et c est la vitesse de la lumière dans le vide et la vitesse v de S', relatif à S, est parallèle à la X-axe. Pour simplifier, le oui et z les coordonnées ne sont pas affectées, seuls les X et t les coordonnées sont transformées. Ces transformations de Lorentz forment un groupe d'applications linéaires à un paramètre, ce paramètre étant appelé rapidité.

La résolution des quatre équations de transformation ci-dessus pour les coordonnées non amorcées donne la transformation inverse de Lorentz :

Faire respecter cela inverse La transformation de Lorentz pour coïncider avec la transformation de Lorentz du système amorcé au système non amorcé, montre que le cadre non amorcé se déplace avec la vitesse v′ = −v, tel que mesuré dans le cadre amorcé.

Il n'y a rien de spécial dans le X-axe. La transformation peut s'appliquer au oui- ou z-axe, ou bien dans n'importe quelle direction parallèle au mouvement (qui sont déformés par le ?? facteur) et perpendiculaire voir l'article Transformation de Lorentz pour plus de détails.

Une quantité invariante sous les transformations de Lorentz est connue sous le nom de scalaire de Lorentz.

Écrire la transformation de Lorentz et son inverse en termes de différences de coordonnées, où un événement a des coordonnées (X1, t1) et (X1, t1) , un autre événement a des coordonnées (X2, t2) et (X2, t2) , et les différences sont définies comme

Si nous prenons des différentiels au lieu de prendre des différences, nous obtenons

Représentation graphique de la transformation de Lorentz Modifier

Les diagrammes espace-temps (diagrammes de Minkowski) sont une aide extrêmement utile pour visualiser comment les coordonnées se transforment entre différents référentiels. Bien qu'il ne soit pas aussi facile d'effectuer des calculs exacts en les utilisant qu'en invoquant directement les transformations de Lorentz, leur principale puissance est leur capacité à fournir une compréhension intuitive des résultats d'un scénario relativiste. [19]

Pour tracer un diagramme espace-temps, commencez par considérer deux référentiels galiléens, S et S', en configuration standard, comme le montre la figure 2-1. [19] [23] : 155-199

Alors que le cadre non amorcé est dessiné avec des axes d'espace et de temps qui se rencontrent à angle droit, le cadre amorcé est dessiné avec des axes qui se rencontrent à des angles aigus ou obtus. Cette asymétrie est due à des distorsions inévitables dans la façon dont les coordonnées de l'espace-temps sont mappées sur un plan cartésien, mais les cadres sont en fait équivalents.

Les conséquences de la relativité restreinte peuvent être déduites des équations de la transformation de Lorentz. [24] Ces transformations, et donc la relativité restreinte, conduisent à des prédictions physiques différentes de celles de la mécanique newtonienne à toutes les vitesses relatives, et plus prononcées lorsque les vitesses relatives deviennent comparables à la vitesse de la lumière. La vitesse de la lumière est tellement plus grande que tout ce que la plupart des humains rencontrent que certains des effets prédits par la relativité sont initialement contre-intuitifs.

Intervalle invariant Modifier

En relativité restreinte, cependant, l'imbrication des coordonnées spatiales et temporelles génère le concept d'un intervalle invariant, noté Δ s 2 > :

L'entrelacement de l'espace et du temps révoque les concepts implicitement supposés de simultanéité absolue et de synchronisation à travers des cadres non mobiles.

La forme de Δ s 2 , ,> étant la différence du laps de temps au carré et de la distance spatiale au carré, démontre un écart fondamental entre les distances euclidiennes et spatio-temporelles. [note 7] L'invariance de cet intervalle est une propriété du général Transformée de Lorentz (également appelée transformation de Poincaré), ce qui en fait une isométrie de l'espace-temps. La transformée de Lorentz générale étend la transformée de Lorentz standard (qui traite des translations sans rotation, c'est-à-dire des amplifications de Lorentz, dans la direction x) avec toutes les autres translations, réflexions et rotations entre n'importe quel référentiel inertiel cartésien. [28] : 33-34

Dans l'analyse de scénarios simplifiés, tels que les diagrammes espace-temps, une forme à dimension réduite de l'intervalle invariant est souvent utilisée :

Démontrer que l'intervalle est invariant est simple pour le cas de dimension réduite et avec des cadres en configuration standard : [19]

En considérant la signification physique de Δ s 2 > , il y a trois cas à noter : [19] [29] : 25–39

  • s 2 > 0 : Dans ce cas, les deux événements sont séparés par plus de temps que d'espace, et on dit donc qu'ils sont temporel séparé. Cela implique que | x / t | < c , et étant donné la transformation de Lorentz Δ x ′ = γ ( Δ x − v Δ t ) , il est évident qu'il existe av inférieur à c pour lequel Δ x ′ = 0 (en particulier , v = Δ x / Δ t ). En d'autres termes, étant donné deux événements séparés dans le temps, il est possible de trouver un cadre dans lequel les deux événements se produisent au même endroit. Dans ce cadre, la séparation dans le temps, s / c , est appelée la moment approprié.
  • s 2 < 0 : Dans ce cas, les deux événements sont séparés par plus d'espace que de temps, et on dit donc qu'ils sont semblable à l'espace séparé. Cela implique que | x / t | > c , et étant donné la transformation de Lorentz Δ t ′ = γ ( Δ t − v Δ x / c 2 ) , ),> il existe av inférieur à c pour lequel Δ t ′ = 0 (en particulier, v = c 2 t / Δ x Delta t/Delta x> ). En d'autres termes, étant donné que deux événements sont séparés comme dans l'espace, il est possible de trouver un cadre dans lequel les deux événements se produisent en même temps. Dans ce cadre, la séparation dans l'espace, − Δ s 2 , >>,> est appelée la bonne distance, ou bonne longueur. Pour les valeurs de v supérieur et inférieur à c 2 Δ t / Δ x , Delta t/Delta x,> le signe de Δ t ′ change, ce qui signifie que l'ordre temporel des événements séparés par l'espace change en fonction du cadre dans lequel les événements sont visualisés. L'ordre temporel des événements séparés dans le temps, cependant, est absolu, puisque la seule façon pour que v puisse être supérieur à c 2 t / Δ x Delta t/Delta x> serait si v > c .
  • s 2 = 0 : Dans ce cas, on dit que les deux événements sont léger séparé. Cela implique que | x / t | = c , et cette relation est indépendante du cadre en raison de l'invariance de s 2 . .> De là, nous observons que la vitesse de la lumière est c dans chaque référentiel inertiel. En d'autres termes, à partir de l'hypothèse de covariance universelle de Lorentz, la vitesse constante de la lumière est un résultat dérivé, plutôt qu'un postulat comme dans la formulation à deux postulats de la théorie spéciale.

Relativité de la simultanéité Modifier

Considérons deux événements se produisant à deux endroits différents qui se produisent simultanément dans le cadre de référence d'un observateur inertiel. Ils peuvent survenir de manière non simultanée dans le référentiel d'un autre observateur inertiel (manque de simultanéité absolue).

De Équation 3 (la transformation de Lorentz vers l'avant en termes de différences de coordonnées)

Il est clair que les deux événements simultanés dans le cadre S (satisfaisantt = 0 ), ne sont pas nécessairement simultanés dans un autre référentiel inertiel S′ (satisfaisantt= 0 ). Seulement si ces événements sont en outre co-locaux dans le cadre S (satisfaisantX = 0 ), seront-ils simultanés dans une autre trame S′.

L'effet Sagnac peut être considéré comme une manifestation de la relativité de la simultanéité. [30] Puisque la relativité de la simultanéité est un effet de premier ordre dans v , [19] les instruments basés sur l'effet Sagnac pour leur fonctionnement, tels que les gyroscopes à laser annulaire et les gyroscopes à fibre optique, sont capables de niveaux de sensibilité extrêmes. . [p 14]

Dilatation du temps Modifier

Le laps de temps entre deux événements n'est pas invariant d'un observateur à l'autre, mais dépend des vitesses relatives des référentiels des observateurs (par exemple, le paradoxe des jumeaux qui concerne un jumeau qui s'envole dans un vaisseau spatial voyageant près de la vitesse de la lumière et revient pour découvrir que le frère jumeau qui ne voyage pas a beaucoup plus vieilli, le paradoxe étant que à vitesse constante nous sommes incapables de discerner quel jumeau ne voyage pas et quel jumeau voyage).

Supposons qu'une horloge soit au repos dans le système non amorcé S. L'emplacement de l'horloge sur deux ticks différents est alors caractérisé par ΔX = 0 . Pour trouver la relation entre les temps entre ces ticks mesurés dans les deux systèmes, Équation 3 peut être utilisé pour trouver :

Cela montre que le temps (Δt′) entre les deux ticks comme on le voit dans le cadre dans lequel l'horloge se déplace (S'), est plus long que le temps (Δt) entre ces graduations telles que mesurées dans le cadre de repos de l'horloge (S). La dilatation du temps explique un certain nombre de phénomènes physiques, par exemple, la durée de vie des muons à grande vitesse créés par la collision de rayons cosmiques avec des particules dans l'atmosphère extérieure de la Terre et se déplaçant vers la surface est plus longue que la durée de vie des muons se déplaçant lentement, créés et se désintégrant dans un laboratoire. [31]

Contraction de la longueur Modifier

Les dimensions (par exemple, la longueur) d'un objet tel que mesuré par un observateur peuvent être plus petites que les résultats des mesures du même objet faites par un autre observateur (par exemple, le paradoxe de l'échelle implique une longue échelle voyageant près de la vitesse de la lumière et étant contenue dans un petit garage).

De même, supposons qu'une tige de mesure est au repos et alignée le long de la X-axe dans le système non amorcé S. Dans ce système, la longueur de cette tige s'écrit ΔX. Pour mesurer la longueur de cette tige dans le système S, dans laquelle la tige se déplace, les distances X′ aux extrémités de la tige doivent être mesurés simultanément dans ce système S. En d'autres termes, la mesure est caractérisée par Δt′ = 0 , qui peut être combiné avec Équation 4 pour trouver la relation entre les longueursX etX′:

Cela montre que la longueur (ΔX′) de la tige mesurée dans le cadre dans lequel elle se déplace (S'), est plus court que sa longueur (ΔX) dans son propre cadre de repos (S).

La dilatation du temps et la contraction des longueurs ne sont pas que des apparences. La dilatation du temps est explicitement liée à notre façon de mesurer intervalles de temps entre des événements qui se produisent au même endroit dans un système de coordonnées donné (appelés événements « co-locaux »). Ces intervalles de temps (qui peuvent être et sont effectivement mesurés expérimentalement par des observateurs pertinents) sont différent dans un autre système de coordonnées se déplaçant par rapport au premier, à moins que les événements, en plus d'être co-locaux, soient également simultanés. De même, la contraction de longueur se rapporte à nos distances mesurées entre des événements séparés mais simultanés dans un système de coordonnées donné de choix. Si ces événements ne sont pas co-locaux, mais sont séparés par la distance (espace), ils ne pas se produire en même temps distance spatiale les uns des autres lorsqu'ils sont vus depuis un autre système de coordonnées mobiles.

Transformation de Lorentz des vitesses Modifier

Considérons deux cadres S et S′ en configuration standard. Une particule dans S se déplace dans la direction x avec le vecteur vitesse u . .> Quelle est sa vitesse u ′ > dans le cadre S′ ?

Substituer des expressions pour d x ′ et d t ′ de Équation 5 dans Équation 8, suivi par des manipulations mathématiques simples et une rétro-substitution à partir de Équation 7 donne la transformation de Lorentz de la vitesse u en u ′ :

La relation inverse est obtenue en interchangeant les symboles amorcés et non amorcés et en remplaçant v par − v .

Les transformations directes et inverses pour ce cas sont :

Nous notons les points suivants :

  • Si un objet (par exemple, un photon) se déplaçait à la vitesse de la lumière dans une image (par exemple, vous = ±c ou tu es = ±c), alors il se déplacerait également à la vitesse de la lumière dans n'importe quel autre cadre, se déplaçant à | v | < c .
  • La vitesse résultante de deux vitesses de magnitude inférieure à c est toujours une vitesse de magnitude inférieure à c.
  • Si les deux |vous| et |v| (et puis aussi |vous| et |v′|) sont petites par rapport à la vitesse de la lumière (c'est-à-dire, | vous / c | ≪ 1 ), alors les transformations galiléennes intuitives sont récupérées à partir des équations de transformation pour la relativité restreinte
  • Attacher un cadre à un photon (chevaucher un faisceau lumineux comme Einstein le considère) nécessite un traitement spécial des transformations.

Il n'y a rien de spécial dans le X direction dans la configuration standard. Le formalisme ci-dessus s'applique à n'importe quelle direction et trois directions orthogonales permettent de traiter toutes les directions de l'espace en décomposant les vecteurs vitesse en leurs composantes dans ces directions. Voir Formule d'addition de vitesse pour plus de détails.

Rotation de Thomas Modifier

La composition de deux boosts de Lorentz non colinéaires (c.

Contrairement aux effets relativistes de second ordre tels que la contraction de la longueur ou la dilatation du temps, cet effet devient assez significatif même à des vitesses assez faibles. Par exemple, cela peut être vu dans le spin des particules en mouvement, où la précession de Thomas est une correction relativiste qui s'applique au spin d'une particule élémentaire ou à la rotation d'un gyroscope macroscopique, reliant la vitesse angulaire du spin d'une particule suivant un orbite curviligne à la vitesse angulaire du mouvement orbital. [29] : 169–174

La rotation de Thomas fournit la résolution du bien connu « paradoxe du mètre et du trou ». [p 15] [29] : 98–99

Causalité et interdiction du mouvement plus rapide que la lumière Modifier

Dans la Fig. 4-3, l'intervalle de temps entre les événements A (la "cause") et B (l'"effet") est "semblable au temps", c'est-à-dire qu'il existe un cadre de référence dans lequel les événements A et B se produisent au même emplacement dans l'espace, séparés uniquement en se produisant à des moments différents. Si A précède B dans cette trame, alors A précède B dans toutes les trames accessibles par une transformation de Lorentz. Il est possible pour la matière (ou l'information) de voyager (en dessous de la vitesse de la lumière) de l'emplacement de A, en commençant au moment de A, jusqu'à l'emplacement de B, en arrivant au moment de B, il peut donc y avoir une relation causale ( avec A la cause et B l'effet).

L'intervalle AC dans le diagramme est « semblable à l'espace », c'est-à-dire qu'il existe un cadre de référence dans lequel les événements A et C se produisent simultanément, séparés uniquement dans l'espace. Il existe également des trames dans lesquelles A précède C (comme illustré) et des trames dans lesquelles C précède A. Cependant, il n'y a pas de trames accessibles par une transformation de Lorentz, dans lesquelles les événements A et C se produisent au même endroit. S'il était possible qu'une relation de cause à effet existe entre les événements A et C, il en résulterait des paradoxes de causalité.

Par exemple, si les signaux pouvaient être envoyés plus rapidement que la lumière, alors les signaux pourraient être envoyés dans le passé de l'expéditeur (observateur B dans les diagrammes). [32] [p 16] Une variété de paradoxes causaux pourrait alors être construit.

Considérez les diagrammes espace-temps de la figure 4-4. A et B se tiennent le long d'une voie ferrée, lorsqu'un train à grande vitesse passe, avec C dans la dernière voiture du train et D dans la voiture de tête. Les lignes d'univers de A et B sont verticales (ct), distinguant la position stationnaire de ces observateurs au sol, tandis que les lignes d'univers de C et D sont inclinées vers l'avant (ct′), reflétant le mouvement rapide des observateurs C et D immobiles dans leur train, observé depuis le sol.

  1. 4-4a. L'événement "B passe un message à D", au passage de la voiture de tête, est à l'origine de la trame de D. D envoie le message le long du train à C dans la voiture arrière, en utilisant un "communicateur instantané" fictif. La ligne du monde de ce message est la grosse flèche rouge le long de l'axe − x ′ , qui est une ligne de simultanéité dans les trames amorcées de C et D. Dans la trame de masse (non amorcée), le signal arrive plus tôt qu'il n'a été envoyé.
  2. 4-4b. L'événement de "C passe le message à A", qui se tient près des voies ferrées, est à l'origine de leurs trames. A présent, A envoie le message le long des pistes à B via un "communicateur instantané". La ligne du monde de ce message est la grosse flèche bleue, le long de l'axe + x , qui est une ligne de simultanéité pour les trames de A et B. Comme on le voit sur le diagramme espace-temps, B recevra le message avant l'avoir envoyé, une violation de la causalité. [33]

Par conséquent, si la causalité doit être préservée, l'une des conséquences de la relativité restreinte est qu'aucun signal d'information ou objet matériel ne peut voyager plus vite que la lumière dans le vide.

Cela ne veut pas dire que tous des vitesses plus rapides que la lumière sont impossibles. Diverses situations triviales peuvent être décrites où certaines « choses » (pas la matière ou l'énergie réelles) se déplacent plus rapidement que la lumière. [35] Par exemple, l'endroit où le faisceau d'un projecteur frappe le fond d'un nuage peut se déplacer plus rapidement que la lumière lorsque le projecteur est tourné rapidement (bien que cela ne viole pas la causalité ou tout autre phénomène relativiste). [36] [37]

Effets de glissement Modifier

En 1850, Hippolyte Fizeau et Léon Foucault ont indépendamment établi que la lumière voyage plus lentement dans l'eau que dans l'air, validant ainsi une prédiction de la théorie ondulatoire de la lumière de Fresnel et invalidant la prédiction correspondante de la théorie corpusculaire de Newton. [38] La vitesse de la lumière a été mesurée dans l'eau calme. Quelle serait la vitesse de la lumière dans l'eau qui coule ?

En 1851, Fizeau a mené une expérience pour répondre à cette question, dont une représentation simplifiée est illustrée sur la figure 5-1. Un faisceau de lumière est divisé par un diviseur de faisceau, et les faisceaux divisés sont passés dans des directions opposées à travers un tube d'eau courante. Ils sont recombinés pour former des franges d'interférence, indiquant une différence de longueur de chemin optique, qu'un observateur peut voir. L'expérience a démontré que le traînage de la lumière par l'eau qui s'écoulait provoquait un déplacement des franges, montrant que le mouvement de l'eau avait affecté la vitesse de la lumière.

Selon les théories qui prévalaient à l'époque, la lumière traversant un milieu en mouvement serait une simple somme de sa vitesse par le médium plus la vitesse de le moyen. Contrairement aux attentes, Fizeau a constaté que même si la lumière semblait être entraînée par l'eau, l'ampleur de l'entraînement était beaucoup plus faible que prévu. Si u ′ = c / n est la vitesse de la lumière en eau calme, et v est la vitesse de l'eau, et u ± > est la vitesse de la lumière hydrique dans le cadre du laboratoire avec le débit d'eau s'ajoutant ou se soustrayant de la vitesse de la lumière, puis

Les résultats de Fizeau, bien que cohérents avec l'hypothèse antérieure de Fresnel d'un entraînement partiel de l'éther, étaient extrêmement déconcertants pour les physiciens de l'époque. Entre autres choses, la présence d'un terme d'indice de réfraction signifiait que, puisque n dépend de la longueur d'onde, l'éther doit être capable de soutenir différents mouvements en même temps. [note 8] Une variété d'explications théoriques ont été proposées pour expliquer le coefficient de traînée de Fresnel qui étaient complètement en désaccord les unes avec les autres. Même avant l'expérience Michelson-Morley, les résultats expérimentaux de Fizeau faisaient partie d'un certain nombre d'observations qui ont créé une situation critique pour expliquer l'optique des corps en mouvement. [39]

Du point de vue de la relativité restreinte, le résultat de Fizeau n'est qu'une approximation de Équation 10, la formule relativiste pour la composition des vitesses. [28]

Aberration relativiste de la lumière Modifier

En raison de la vitesse finie de la lumière, si les mouvements relatifs d'une source et d'un récepteur comprennent une composante transversale, alors la direction à partir de laquelle la lumière arrive au récepteur sera décalée de la position géométrique dans l'espace de la source par rapport au récepteur. Le calcul classique du déplacement prend deux formes et fait des prédictions différentes selon que le récepteur, la source ou les deux sont en mouvement par rapport au milieu. (1) Si le récepteur est en mouvement, le déplacement serait la conséquence de l'aberration de la lumière. L'angle d'incidence du faisceau par rapport au récepteur serait calculable à partir de la somme vectorielle des mouvements du récepteur et de la vitesse de la lumière incidente. [40] (2) Si la source est en mouvement, le déplacement serait la conséquence de la correction du temps lumière. Le déplacement de la position apparente de la source par rapport à sa position géométrique serait le résultat du mouvement de la source pendant le temps que met sa lumière pour atteindre le récepteur. [41]

L'explication classique a échoué au test expérimental. Étant donné que l'angle d'aberration dépend de la relation entre la vitesse du récepteur et la vitesse de la lumière incidente, le passage de la lumière incidente à travers un milieu réfractif devrait modifier l'angle d'aberration. En 1810, Arago a utilisé ce phénomène attendu dans une tentative infructueuse de mesurer la vitesse de la lumière, [42] et en 1870, George Airy a testé l'hypothèse à l'aide d'un télescope rempli d'eau, constatant que, contre toute attente, l'aberration mesurée était identique à l'aberration mesurée avec un télescope à air. [43] Une tentative "lourde" pour expliquer ces résultats a utilisé l'hypothèse d'une traînée d'éther partielle, [44] mais était incompatible avec les résultats de l'expérience de Michelson-Morley, qui a apparemment exigé Achevée traînée d'éther. [45]

En supposant des trames inertielles, l'expression relativiste de l'aberration de la lumière est applicable à la fois aux cas de déplacement de récepteur et de déplacement de source. Diverses formules trigonométriquement équivalentes ont été publiées. Exprimées en termes de variables dans la Fig. 5-2, celles-ci incluent [28] : 57–60

Effet Doppler relativiste Modifier

Effet Doppler longitudinal relativiste Modifier

L'effet Doppler classique dépend de si la source, le récepteur ou les deux sont en mouvement par rapport au milieu. L'effet Doppler relativiste est indépendant de tout milieu. Néanmoins, le décalage Doppler relativiste pour le cas longitudinal, avec source et récepteur se rapprochant ou s'éloignant directement l'un de l'autre, peut être dérivé comme s'il s'agissait du phénomène classique, mais modifié par l'ajout d'un terme de dilatation temporelle, et c'est le traitement décrit ici. [46] [47]

Pour la lumière, et avec le récepteur se déplaçant à des vitesses relativistes, les horloges du récepteur sont dilatées dans le temps par rapport aux horloges de la source. Le récepteur mesurera la fréquence reçue à

Une expression identique pour le décalage Doppler relativiste est obtenue lors de l'exécution de l'analyse dans le cadre de référence de la destinataire avec une source mobile. [48] ​​[19]

Effet Doppler transverse Modifier

L'effet Doppler transverse est l'une des principales nouvelles prédictions de la théorie de la relativité restreinte.

Classiquement, on pourrait s'attendre à ce que si la source et le récepteur se déplacent transversalement l'un par rapport à l'autre sans composante longitudinale de leurs mouvements relatifs, il ne devrait pas y avoir de décalage Doppler dans la lumière arrivant au récepteur.

La relativité restreinte prédit le contraire. La figure 5-3 illustre deux variantes courantes de ce scénario. Les deux variantes peuvent être analysées en utilisant de simples arguments de dilatation temporelle. [19] Sur la figure 5-3a, le récepteur observe la lumière de la source comme étant décalée vers le bleu d'un facteur γ . Sur la figure 5-3b, la lumière est décalée vers le rouge du même facteur.

Mesure versus apparence visuelle Modifier

La dilatation du temps et la contraction des longueurs ne sont pas des illusions d'optique, mais de véritables effets. Les mesures de ces effets ne sont pas un artefact du décalage Doppler, ni le résultat de la négligence de prendre en compte le temps que met la lumière pour se rendre d'un événement à un observateur.

Les scientifiques font une distinction fondamentale entre la mesure ou observation d'une part, contre apparence visuelle, ou quoi voit. La forme mesurée d'un objet est un instantané hypothétique de tous les points de l'objet tels qu'ils existent à un moment donné. L'apparence visuelle d'un objet, cependant, est affectée par le temps variable que prend la lumière pour voyager de différents points de l'objet à l'œil.

Pendant de nombreuses années, la distinction entre les deux n'avait pas été généralement appréciée, et on avait généralement pensé qu'un objet contracté de longueur passant par un observateur serait en fait vu comme durée contractée. En 1959, James Terrell et Roger Penrose ont indépendamment souligné que les effets de décalage temporel différentiel dans les signaux atteignant l'observateur à partir des différentes parties d'un objet en mouvement entraînent une apparence visuelle d'un objet en mouvement rapide très différente de sa forme mesurée. Par exemple, un objet fuyant apparaître contracté, un objet qui s'approche apparaître allongé, et un objet qui passe aurait une apparence oblique qui a été comparée à une rotation. [p 19] [p 20] [49] [50] Une sphère en mouvement conserve l'apparence d'une sphère, bien que les images à la surface de la sphère apparaissent déformées. [51]

La figure 5-4 illustre un cube vu à une distance de quatre fois la longueur de ses côtés. À grande vitesse, les côtés du cube perpendiculaires à la direction du mouvement ont une forme hyperbolique. Le cube n'est en fait pas tourné. Au contraire, la lumière de l'arrière du cube met plus de temps à atteindre les yeux par rapport à la lumière de l'avant, pendant laquelle le cube s'est déplacé vers la droite. Cette illusion est connue sous le nom de Rotation terrestre ou la Effet Terrell-Penrose. [note 9]

Un autre exemple où l'apparence visuelle est en contradiction avec la mesure provient de l'observation du mouvement supraluminique apparent dans diverses radiogalaxies, objets BL Lac, quasars et autres objets astronomiques qui éjectent des jets de matière à vitesse relativiste à des angles étroits par rapport au spectateur. Il en résulte une illusion d'optique apparente donnant l'impression d'un voyage plus rapide que la lumière. [52] [53] [54] Sur la figure 5-5, la galaxie M87 émet un jet à grande vitesse de particules subatomiques presque directement vers nous, mais la rotation Penrose-Terrell fait que le jet semble se déplacer latéralement dans le même sens. manière que l'apparence du cube dans la Fig. 5-4 a été étirée. [55]

Section Conséquences dérivées de la transformation de Lorentz traitait strictement de la cinématique, l'étude du mouvement des points, des corps et des systèmes de corps sans tenir compte des forces qui ont causé le mouvement. Cette section traite des masses, des forces, de l'énergie, etc.

Équivalence de masse et d'énergie Modifier

Au fur et à mesure que la vitesse d'un objet se rapproche de la vitesse de la lumière du point de vue d'un observateur, sa masse relativiste augmente, ce qui rend de plus en plus difficile son accélération à partir du cadre de référence de l'observateur.

Le contenu énergétique d'un objet au repos avec une masse m équivaut à mc 2 . La conservation de l'énergie implique que, dans toute réaction, une diminution de la somme des masses de particules doit s'accompagner d'une augmentation des énergies cinétiques des particules après la réaction. De même, la masse d'un objet peut être augmentée en absorbant des énergies cinétiques.

En plus des articles référencés ci-dessus - qui donnent des dérivations de la transformation de Lorentz et décrivent les fondements de la relativité restreinte - Einstein a également écrit au moins quatre articles donnant des arguments heuristiques pour l'équivalence (et la transmutabilité) de la masse et de l'énergie, pour E = mc 2 .

L'équivalence masse-énergie est une conséquence de la relativité restreinte. L'énergie et la quantité de mouvement, qui sont séparées en mécanique newtonienne, forment un quadruple vecteur en relativité, ce qui relie la composante temporelle (l'énergie) aux composantes spatiales (la quantité de mouvement) d'une manière non triviale. Pour un objet au repos, le quatre vecteur énergie-impulsion est (E/c, 0, 0, 0) : il a une composante temporelle qui est l'énergie, et trois composantes spatiales qui sont nulles. En changeant de référentiel avec une transformation de Lorentz dans la direction x avec une petite valeur de la vitesse v, le quadruple vecteur de quantité d'énergie devient (E/c, Ev/c 2 , 0, 0) . La quantité de mouvement est égale à l'énergie multipliée par la vitesse divisée par c 2 . En tant que telle, la masse newtonienne d'un objet, qui est le rapport de la quantité de mouvement à la vitesse pour les vitesses lentes, est égale à E/c 2 .

L'énergie et la quantité de mouvement sont des propriétés de la matière et du rayonnement, et il est impossible de déduire qu'ils forment un quadrivecteur uniquement à partir des deux postulats de base de la relativité restreinte, car ceux-ci ne parlent pas de matière ou de rayonnement, ils ne parlent que sur l'espace et le temps. La dérivation nécessite donc un raisonnement physique supplémentaire. Dans son article de 1905, Einstein a utilisé les principes supplémentaires que la mécanique newtonienne devrait respecter pour les vitesses lentes, de sorte qu'il y a un scalaire d'énergie et un élan à trois vecteurs aux vitesses lentes, et que la loi de conservation de l'énergie et de l'élan est exactement vraie en relativité . De plus, il a supposé que l'énergie de la lumière est transformée par le même facteur de décalage Doppler que sa fréquence, ce qu'il avait précédemment démontré être vrai sur la base des équations de Maxwell. [p 1] Le premier des articles d'Einstein sur ce sujet était « L'inertie d'un corps dépend-elle de son contenu énergétique ? en 1905. [p 21] Bien que l'argument d'Einstein dans cet article soit presque universellement accepté par les physiciens comme correct, voire évident, de nombreux auteurs au cours des années ont suggéré qu'il était faux. [56] D'autres auteurs suggèrent que l'argument n'était simplement pas concluant parce qu'il reposait sur des hypothèses implicites. [57]

Einstein a reconnu la controverse sur sa dérivation dans son document d'enquête de 1907 sur la relativité restreinte. Là, il note qu'il est problématique de s'appuyer sur les équations de Maxwell pour l'argument heuristique masse-énergie. L'argument de son article de 1905 peut être mis en œuvre avec l'émission de n'importe quelle particule sans masse, mais les équations de Maxwell sont implicitement utilisées pour montrer clairement que l'émission de lumière en particulier ne peut être obtenue qu'en travaillant. Pour émettre des ondes électromagnétiques, il suffit de secouer une particule chargée, et cela fait clairement du travail, de sorte que l'émission est d'énergie. [p 22] [note 10]

À quelle distance peut-on voyager de la Terre ? Éditer

Puisqu'on ne peut pas voyager plus vite que la lumière, on pourrait conclure qu'un humain ne peut jamais voyager plus loin de la Terre que 40 années-lumière si le voyageur est actif entre 20 et 60 ans. On pourrait facilement penser qu'un voyageur ne pourrait jamais atteindre plus que les très rares systèmes solaires qui existent dans la limite de 20 à 40 années-lumière de la terre. Mais ce serait une conclusion erronée. En raison de la dilatation du temps, un vaisseau spatial hypothétique peut parcourir des milliers d'années-lumière au cours des 40 années actives du pilote. Si un vaisseau spatial pouvait être construit qui accélère à une constante 1g, il voyagera, après un peu moins d'un an, à presque la vitesse de la lumière vue de la Terre. Ceci est décrit par :

v(t) est la vitesse à la fois t, une est l'accélération de 1g et t est le temps mesuré par les gens sur Terre. [p 23] Ainsi, après un an d'accélération à 9,81 m/s 2 , le vaisseau voyagera à v = 0.77c par rapport à la Terre. La dilatation du temps augmentera la durée de vie du voyageur vue depuis le cadre de référence de la Terre à 2,7 ans, mais sa durée de vie mesurée par une horloge voyageant avec lui ne changera pas. Au cours de son voyage, les habitants de la Terre vivront plus de temps que lui. Un aller-retour de 5 ans pour lui prendra 6,5 ​​années terrestres et couvrira une distance de plus de 6 années-lumière. Un aller-retour de 20 ans pour lui (5 ans en accélération, 5 en décélération, deux fois chacun) le ramènera sur Terre après avoir parcouru 335 années terrestres et une distance de 331 années-lumière. [58] Un voyage complet de 40 ans à 1g apparaîtra sur Terre pour durer 58 000 ans et couvrir une distance de 55 000 années-lumière. Un voyage de 40 ans à 1.1g prendra 148 000 années terrestres et couvrira environ 140 000 années-lumière. Un aller simple de 28 ans (14 ans en accélération, 14 en décélération mesurée avec l'horloge de l'astronaute) à 1g l'accélération pourrait atteindre 2 000 000 années-lumière jusqu'à la galaxie d'Andromède. [58] Cette dilatation en même temps est la raison pour laquelle un muon voyageant près de c est observé voyager beaucoup plus loin que c fois sa demi-vie (au repos). [59]

Les recherches théoriques sur l'électromagnétisme classique ont conduit à la découverte de la propagation des ondes. Des équations généralisant les effets électromagnétiques ont montré que la vitesse de propagation finie du E et B les champs nécessitaient certains comportements sur les particules chargées. L'étude générale des charges mobiles forme le potentiel de Liénard-Wiechert, qui est un pas vers la relativité restreinte.

La transformation de Lorentz du champ électrique d'une charge en mouvement dans le référentiel d'un observateur immobile entraîne l'apparition d'un terme mathématique communément appelé champ magnétique. A l'inverse, le magnétique le champ généré par une charge en mouvement disparaît et devient un pur électrostatique champ dans un référentiel mobile. Les équations de Maxwell sont donc simplement un ajustement empirique aux effets relativistes spéciaux dans un modèle classique de l'Univers. Comme les champs électriques et magnétiques sont dépendants du référentiel et donc entrelacés, on parle de électromagnétique des champs. La relativité restreinte fournit les règles de transformation pour la façon dont un champ électromagnétique dans un référentiel inertiel apparaît dans un autre référentiel inertiel.

Les équations de Maxwell sous la forme 3D sont déjà cohérentes avec le contenu physique de la relativité restreinte, bien qu'elles soient plus faciles à manipuler sous une forme manifestement covariante, c'est-à-dire dans le langage du calcul tensoriel. [60]

Spécial La relativité peut être combinée avec la mécanique quantique pour former la mécanique quantique relativiste et l'électrodynamique quantique. Comment général La relativité et la mécanique quantique peuvent être unifiées est l'un des problèmes non résolus de la physique gravitation quantique et une "théorie de tout", qui nécessite une unification incluant également la relativité générale, sont des domaines actifs et en cours dans la recherche théorique.

Le premier modèle atomique de Bohr-Sommerfeld expliquait la structure fine des atomes de métaux alcalins en utilisant à la fois la relativité restreinte et les connaissances préliminaires sur la mécanique quantique de l'époque. [61]

En 1928, Paul Dirac a construit une équation d'onde relativiste influente, maintenant connue sous le nom d'équation de Dirac en son honneur, [p 24] qui est entièrement compatible à la fois avec la relativité restreinte et avec la version finale de la théorie quantique existante après 1926. Cette équation non seulement décrire le moment angulaire intrinsèque des électrons appelé tournoyer, cela a également conduit à la prédiction de l'antiparticule de l'électron (le positon), [p 24] [p 25] et la structure fine ne pouvait être pleinement expliquée qu'avec la relativité restreinte. C'était la première fondation de mécanique quantique relativiste.

D'autre part, l'existence d'antiparticules conduit à la conclusion que la mécanique quantique relativiste n'est pas suffisante pour une théorie plus précise et complète des interactions entre les particules. Au lieu de cela, une théorie des particules interprétées comme des champs quantifiés, appelée théorie quantique des champs, devient nécessaire dans lequel des particules peuvent être créées et détruites à travers l'espace et le temps.

La relativité restreinte dans son espace-temps de Minkowski n'est précise que lorsque la valeur absolue du potentiel gravitationnel est bien inférieure à c 2 dans la région d'intérêt. [62] Dans un champ gravitationnel fort, il faut utiliser la relativité générale. La relativité générale devient la relativité restreinte à la limite d'un champ faible. À de très petites échelles, comme à la longueur de Planck et au-dessous, les effets quantiques doivent être pris en compte, ce qui entraîne la gravité quantique. Cependant, à des échelles macroscopiques et en l'absence de champs gravitationnels forts, la relativité restreinte est testée expérimentalement avec un degré de précision extrêmement élevé (10 −20 ) [63] et donc acceptée par la communauté des physiciens. Les résultats expérimentaux qui semblent le contredire ne sont pas reproductibles et sont donc largement considérés comme dus à des erreurs expérimentales.

La relativité restreinte est mathématiquement cohérente et fait partie intégrante de toutes les théories physiques modernes, notamment la théorie quantique des champs, la théorie des cordes et la relativité générale (dans le cas limite des champs gravitationnels négligeables).

La mécanique newtonienne découle mathématiquement de la relativité restreinte aux petites vitesses (par rapport à la vitesse de la lumière) - ainsi la mécanique newtonienne peut être considérée comme une relativité restreinte des corps lents. Voir la mécanique classique pour une discussion plus détaillée.

Plusieurs expériences antérieures à l'article d'Einstein de 1905 sont maintenant interprétées comme des preuves de la relativité. Parmi ceux-ci, on sait qu'Einstein était au courant de l'expérience de Fizeau avant 1905, [64] et les historiens ont conclu qu'Einstein était au moins au courant de l'expérience de Michelson-Morley dès 1899 malgré les affirmations qu'il a faites dans ses dernières années selon lesquelles elle n'a joué aucun rôle. rôle dans son développement de la théorie. [14]

  • L'expérience Fizeau (1851, répétée par Michelson et Morley en 1886) a mesuré la vitesse de la lumière dans les milieux en mouvement, avec des résultats qui sont cohérents avec l'addition relativiste des vitesses colinéaires.
  • La célèbre expérience Michelson-Morley (1881, 1887) a confirmé le postulat selon lequel la détection d'une vitesse de référence absolue n'était pas réalisable. Il convient de préciser ici que, contrairement à de nombreuses affirmations alternatives, il en dit peu sur l'invariance de la vitesse de la lumière par rapport à la vitesse de la source et de l'observateur, car la source et l'observateur voyageaient ensemble à la même vitesse à tout moment.
  • L'expérience Trouton-Noble (1903) a montré que le couple sur un condensateur est indépendant de la position et du référentiel inertiel.
  • Les expériences de Rayleigh et Brace (1902, 1904) ont montré que la contraction des longueurs ne conduit pas à la biréfringence pour un observateur en mouvement, conformément au principe de relativité.

Les accélérateurs de particules accélèrent et mesurent régulièrement les propriétés des particules se déplaçant à une vitesse proche de la lumière, où leur comportement est tout à fait conforme à la théorie de la relativité et incompatible avec la mécanique newtonienne antérieure. Ces machines ne fonctionneraient tout simplement pas si elles n'étaient pas conçues selon des principes relativistes. De plus, un nombre considérable d'expériences modernes ont été menées pour tester la relativité restreinte. Quelques exemples:

    – tester la vitesse limite des particules – tester l'effet Doppler relativiste et la dilatation temporelle – les effets relativistes sur la demi-vie d'une particule en mouvement rapide – la dilatation temporelle selon les transformations de Lorentz – tester l'isotropie de l'espace et de la masse – divers tests modernes
  • Des expériences pour tester la théorie des émissions ont démontré que la vitesse de la lumière est indépendante de la vitesse de l'émetteur.
  • Expériences pour tester l'hypothèse de la traînée d'éther - pas d'"obstruction du flux d'éther".

Géométrie de l'espace-temps Modifier

Comparaison entre l'espace euclidien plat et l'espace de Minkowski Modifier

La relativité restreinte utilise un espace de Minkowski « plat » à 4 dimensions – un exemple d'espace-temps. L'espace-temps de Minkowski semble être très similaire à l'espace euclidien tridimensionnel standard, mais il existe une différence cruciale par rapport au temps.

Dans l'espace 3D, le différentiel de distance (élément de ligne) ds est défini par

X = (dx1, dx2, dx3) sont les différentiels des trois dimensions spatiales. Dans la géométrie de Minkowski, il y a une dimension supplémentaire avec la coordonnée X 0 dérivé du temps, tel que le différentiel de distance remplit

X = (dX0, dX1, dX2, dX3) sont les différentielles des quatre dimensions de l'espace-temps. Cela suggère une compréhension théorique profonde : la relativité restreinte est simplement une symétrie de rotation de notre espace-temps, analogue à la symétrie de rotation de l'espace euclidien (voir Fig. 10-1). [66] Tout comme l'espace euclidien utilise une métrique euclidienne, l'espace-temps utilise une métrique de Minkowski. Fondamentalement, la relativité restreinte peut être définie comme la invariance de tout intervalle d'espace-temps (c'est la distance 4D entre deux événements quelconques) vu de tout référentiel inertiel. Toutes les équations et effets de la relativité restreinte peuvent être dérivés de cette symétrie de rotation (le groupe de Poincaré) de l'espace-temps de Minkowski.

La forme réelle de ds ci-dessus dépend de la métrique et des choix pour le X 0 coordonnée. Pour que la coordonnée temporelle ressemble aux coordonnées spatiales, elle peut être traitée comme imaginaire : X0 = tic (c'est ce qu'on appelle une rotation de la mèche). Selon Misner, Thorne et Wheeler (1971, §2.3), en fin de compte, la compréhension plus profonde de la relativité restreinte et générale viendra de l'étude de la métrique de Minkowski (décrite ci-dessous) et de prendre X 0 = ct , plutôt qu'une métrique euclidienne "déguisée" utilisant tic comme coordonnée temporelle.

Certains auteurs utilisent X 0 = t , avec des facteurs de c ailleurs pour compenser par exemple, les coordonnées spatiales sont divisées par c ou des facteurs de c ±2 sont inclus dans le tenseur métrique. [67] Ces nombreuses conventions peuvent être remplacées en utilisant des unités naturelles où c = 1 . Alors l'espace et le temps ont des unités équivalentes, et aucun facteur de c apparaître n'importe où.

Espace-temps 3D Modifier

Si nous réduisons les dimensions spatiales à 2, afin que nous puissions représenter la physique dans un espace 3D

on voit que les géodésiques nulles se situent le long d'un double cône (voir Fig. 10-2) défini par l'équation

qui est l'équation d'un cercle de rayon c dt.

Espace-temps 4D Modifier

Si nous étendons cela à trois dimensions spatiales, les géodésiques nulles sont le cône à 4 dimensions :

Comme illustré à la Fig. 10-3, les géodésiques nulles peuvent être visualisées comme un ensemble de sphères concentriques continues avec des rayons = c dt.

Ce double cône nul représente la "ligne de visée" d'un point dans l'espace. C'est-à-dire que lorsque nous regardons les étoiles et disons "La lumière de cette étoile que je reçois a X ans", nous regardons vers le bas cette ligne de mire : une géodésique nulle. Nous regardons un événement à une distance d = x 1 2 + x 2 2 + x 3 2 ^<2>+x_<2>^<2>+x_<3>^<2>>>> absent et un temps d/c autrefois. Pour cette raison, le double cône nul est également connu sous le nom de « cône de lumière ». (Le point en bas à gauche de la figure 10-2 représente l'étoile, l'origine représente l'observateur et la ligne représente la "ligne de visée" géodésique nulle).)

Le cône dans le -t région est l'information que le point "reçoit", tandis que le cône dans le +t section est l'information que le point « envoie ».

La géométrie de l'espace de Minkowski peut être représentée à l'aide de diagrammes de Minkowski, qui sont également utiles pour comprendre de nombreuses expériences de pensée en relativité restreinte.

Notez que, dans l'espace-temps 4d, le concept de centre de masse devient plus compliqué, voir Centre de masse (relativiste).

La physique dans l'espace-temps Modifier

Transformations de grandeurs physiques entre référentiels Modifier

Ci-dessus, la transformation de Lorentz pour la coordonnée temporelle et les trois coordonnées spatiales illustrent leur imbrication. C'est vrai plus généralement : certains couples de grandeurs « temporelles » et « spatiales » se combinent naturellement sur un pied d'égalité sous une même transformation de Lorentz.

La transformation de Lorentz en configuration standard ci-dessus, c'est-à-dire pour un boost dans le X-direction, peut être refondu sous forme matricielle comme suit :

En mécanique newtonienne, les quantités qui ont une magnitude et une direction sont décrites mathématiquement comme des vecteurs 3D dans l'espace euclidien, et en général, elles sont paramétrées par le temps. En relativité restreinte, cette notion est étendue en ajoutant la quantité de type temps appropriée à une quantité vectorielle de type espace, et nous avons des vecteurs 4d, ou "quatre vecteurs", dans l'espace-temps de Minkowski. Les composantes des vecteurs sont écrites en utilisant la notation d'indice tensoriel, car cela présente de nombreux avantages. La notation indique clairement que les équations sont manifestement covariantes sous le groupe de Poincaré, contournant ainsi les calculs fastidieux pour vérifier ce fait. En construisant de telles équations, nous constatons souvent que des équations que l'on pensait auparavant sans rapport sont, en fait, étroitement liées et font partie de la même équation tensorielle. Reconnaître d'autres grandeurs physiques comme des tenseurs simplifie leurs lois de transformation. Tout au long, les indices supérieurs (exposants) sont des indices contravariants plutôt que des exposants, sauf lorsqu'ils indiquent un carré (cela doit être clair d'après le contexte), et les indices inférieurs (indices) sont des indices covariants. Pour plus de simplicité et de cohérence avec les équations précédentes, les coordonnées cartésiennes seront utilisées.

L'exemple le plus simple d'un quadrivecteur est la position d'un événement dans l'espace-temps, qui constitue une composante temporelle ct et composant de type spatial X = (X, oui, z) , en position contravariante quatre vecteurs à composantes :

où nous définissons X 0 = ct de sorte que la coordonnée de temps a la même dimension de distance que les autres dimensions spatiales afin que l'espace et le temps soient traités de manière égale. [68] [69] [70] Maintenant, la transformation des composantes contravariantes du vecteur de position 4 peut être écrite de façon compacte comme :

où le facteur de Lorentz est :

La quatre accélérations est la dérivée temporelle propre de la 4-vitesse :

Les règles de transformation pour Trois- les vitesses et accélérations dimensionnelles sont très gênantes même au-dessus, en configuration standard, les équations de vitesse sont assez compliquées en raison de leur non-linéarité. D'autre part, la transformation de quatre-vitesse et quatre-les accélérations sont plus simples grâce à la matrice de transformation de Lorentz.

Le quatre gradients d'un champ scalaire se transforme de manière covariante plutôt que contravariante :

qui est la transposée de :

uniquement en coordonnées cartésiennes.C'est la dérivée covariante qui se transforme en covariance manifeste, en coordonnées cartésiennes cela se réduit aux dérivées partielles, mais pas en d'autres coordonnées.

Plus généralement, le cocomposants variants d'une transformée à 4 vecteurs selon le inverse Transformation de Lorentz :

Les postulats de la relativité restreinte contraignent la forme exacte que prennent les matrices de transformation de Lorentz.

Plus généralement, la plupart des quantités physiques sont mieux décrites comme (des composants de) tenseurs. Ainsi, pour passer d'une trame à une autre, nous utilisons la loi de transformation tensorielle bien connue [71]

Un exemple de tenseur antisymétrique du second ordre à quatre dimensions est le moment angulaire relativiste, qui a six composantes : trois sont le moment angulaire classique et les trois autres sont liés à l'augmentation du centre de masse du système. La dérivée du moment cinétique relativiste par rapport au temps propre est le couple relativiste, également tenseur antisymétrique du second ordre.

Le tenseur de champ électromagnétique est un autre champ tenseur antisymétrique du second ordre, avec six composantes : trois pour le champ électrique et trois autres pour le champ magnétique. Il existe également le tenseur contrainte-énergie pour le champ électromagnétique, à savoir le tenseur contrainte-énergie électromagnétique.

Métrique Modifier

Le tenseur métrique permet de définir le produit interne de deux vecteurs, ce qui permet à son tour d'attribuer une grandeur au vecteur. Étant donné la nature quadridimensionnelle de l'espace-temps, la métrique de Minkowski ?? a des composants (valides avec des coordonnées convenablement choisies) qui peuvent être arrangés dans une matrice 4 × 4:

Le groupe de Poincaré est le groupe de transformations le plus général qui préserve la métrique de Minkowski :

et c'est la symétrie physique qui sous-tend la relativité restreinte.

La métrique peut être utilisée pour augmenter et diminuer les indices sur les vecteurs et les tenseurs. Les invariants peuvent être construits en utilisant la métrique, le produit scalaire d'un 4-vecteur T avec un autre 4-vecteur S est:

Invariant signifie qu'il prend la même valeur dans tous les référentiels inertiels, car c'est un scalaire (tenseur de rang 0), et donc aucun n'apparaît dans sa transformation triviale. La magnitude du 4 vecteur T est la racine carrée positive du produit scalaire avec lui-même :

On peut étendre cette idée aux tenseurs d'ordre supérieur, pour un tenseur du second ordre on peut former les invariants :

de même pour les tenseurs d'ordre supérieur. Les expressions invariantes, en particulier les produits internes de 4 vecteurs avec eux-mêmes, fournissent des équations utiles pour les calculs, car il n'est pas nécessaire d'effectuer des transformations de Lorentz pour déterminer les invariants.

Cinématique relativiste et invariance Modifier

Les différentiels de coordonnées se transforment également de manière contravariante :

donc la longueur au carré de la différentielle de la position à quatre vecteurs dX construit en utilisant

est un invariant. Notez que lorsque l'élément de ligne X 2 est négatif que √ −X 2 est le différentiel du temps propre, tandis que lorsque X 2 est positif, X 2 est le différentiel de la distance appropriée.

La 4-vitesse U a une forme invariante :

ce qui signifie que tous les quatre vecteurs de vitesse ont une magnitude de c. C'est une expression du fait qu'il n'existe pas de repos coordonné en relativité : au moins, vous avancez toujours dans le temps. Différencier l'équation ci-dessus par ?? produit :

Ainsi, en relativité restreinte, le quadrivecteur d'accélération et le quadrivecteur de vitesse sont orthogonaux.

Dynamique relativiste et invariance Modifier

La magnitude invariante du vecteur impulsion 4 génère la relation énergie-impulsion :

Nous pouvons déterminer ce qu'est cet invariant en affirmant d'abord que, puisqu'il s'agit d'un scalaire, peu importe dans quel cadre de référence nous le calculons, puis en le transformant en un cadre où la quantité de mouvement totale est nulle.

On voit que l'énergie au repos est un invariant indépendant. Une énergie au repos peut être calculée même pour des particules et des systèmes en mouvement, en la traduisant en un référentiel dans lequel la quantité de mouvement est nulle.

L'énergie au repos est liée à la masse selon la célèbre équation discutée ci-dessus :

La masse des systèmes mesurée dans leur centre de repère de mouvement (où le moment total est nul) est donnée par l'énergie totale du système dans ce repère. Il peut ne pas être égal à la somme des masses individuelles du système mesurées dans d'autres cadres.

Pour utiliser la troisième loi du mouvement de Newton, les deux forces doivent être définies comme le taux de changement de quantité de mouvement par rapport à la même coordonnée temporelle. C'est-à-dire qu'il nécessite la force 3D définie ci-dessus. Malheureusement, il n'y a pas de tenseur en 4D qui contienne les composantes du vecteur de force 3D parmi ses composantes.

Si une particule ne voyage pas à c, on peut transformer la force 3D du référentiel co-mobile de la particule dans le référentiel de l'observateur. Cela donne un vecteur à 4 appelé la force à quatre. C'est le taux de variation du quatre vecteurs de quantité d'énergie ci-dessus par rapport au temps propre. La version covariante des quatre forces est :

Dans le cadre de repos de l'objet, la composante temporelle des quatre forces est nulle à moins que la "masse invariante" de l'objet ne change (cela nécessite un système non fermé dans lequel l'énergie/masse est directement ajoutée ou retirée de l'objet ) auquel cas c'est le négatif de ce taux de changement de masse, fois c. En général, cependant, les composantes de la force à quatre ne sont pas égales aux composantes de la force à trois, car la force à trois est définie par le taux de changement de quantité de mouvement par rapport au temps coordonné, c'est-à-dire dp/dt tandis que la force quatre est définie par le taux de changement de quantité de mouvement par rapport au temps propre, c'est-à-dire dp/.

Dans un milieu continu, la 3D densité de force se combine avec le densité de puissance pour former un 4-vecteur covariant. La partie spatiale est le résultat de la division de la force sur une petite cellule (dans l'espace 3-) par le volume de cette cellule. La composante temporelle est −1/c fois la puissance transférée à cette cellule divisée par le volume de la cellule. Ceci sera utilisé ci-dessous dans la section sur l'électromagnétisme.


Histoire de la mystique chrétienne

Bien que l'essence du mysticisme soit le sens du contact avec le transcendant, le mysticisme dans l'histoire du christianisme ne doit pas être compris simplement en termes d'expériences extatiques particulières, mais comme faisant partie d'un processus religieux vécu au sein de la communauté chrétienne. De ce point de vue, le mysticisme a joué un rôle vital dans l'Église primitive. Le christianisme primitif était une religion de l'esprit qui s'exprimait dans l'élévation et l'élargissement de la conscience humaine. Il est clair d'après les évangiles synoptiques (par exemple, Matthieu 11:25-27) que l'on pensait que Jésus avait joui d'un contact spécial avec Dieu. Dans l'église primitive, un rôle actif était joué par les prophètes, que l'on croyait être les destinataires d'une révélation venant directement du Saint-Esprit.

L'aspect mystique du christianisme primitif trouve son expression la plus complète, cependant, dans les lettres de Paul et l'Évangile selon Jean. Pour Paul et Jean, l'expérience mystique et l'aspiration sont toujours à l'union avec le Christ. C'était le désir suprême de Paul de connaître le Christ et d'être uni à lui. L'expression récurrente « en Christ » implique une union personnelle, une participation à la mort et à la résurrection du Christ. Le Christ avec lequel Paul est uni n'est pas l'homme Jésus qui est connu « selon la chair ». Il a été exalté et glorifié, de sorte qu'il est un avec l'Esprit.

Le mysticisme du Christ apparaît à nouveau dans L'Évangile selon Jean, en particulier dans le discours d'adieu (chapitres 14-16), où Jésus parle de sa mort imminente et de son retour dans l'Esprit pour s'unir à ses disciples. Dans la prière de Jésus au chapitre 17, il y a une vision d'une union interpénétrante des âmes dans laquelle tous ceux qui sont un avec le Christ partagent son union parfaite avec le Père.

Au début des siècles chrétiens, le courant mystique s'est exprimé non seulement dans les traditions du christianisme paulinien et johannique (comme dans les écrits d'Ignace d'Antioche et d'Irénée de Lyon) mais aussi chez les gnostiques (les premiers hérétiques chrétiens qui considéraient la matière comme un mal et la esprit aussi bon). Les érudits débattent encore des origines du gnosticisme, mais la plupart des gnostiques se considéraient comme des disciples du Christ, bien qu'un Christ qui était un pur esprit. La religion de Valentin, excommunié vers 150 après J.-C., est un exemple notable du mysticisme des Gnostiques. Il croyait que les êtres humains sont éloignés de Dieu à cause de leur ignorance spirituelle. Christ les amène dans la gnose (connaissance révélatrice ésotérique) qui est l'union avec Dieu. Valentin a soutenu que tous les êtres humains viennent de Dieu et que tous retourneront à la fin à Dieu. D'autres groupes gnostiques soutenaient qu'il y avait trois types de personnes – « spirituelles », « psychiques » et « matérielles » – et que seuls les deux premiers peuvent être sauvés. Les Pistis-Sophie (3e siècle) est préoccupé par la question de savoir qui sera finalement sauvé. Ceux qui sont sauvés doivent renoncer complètement au monde et suivre la pure éthique d'amour et de compassion afin qu'ils puissent s'identifier à Jésus et devenir des rayons de la Lumière divine.


‘l'exceptionnalisme américain’ : une brève histoire

En campagne électorale, Mitt Romney oppose sa vision de la grandeur américaine à ce qu'il prétend être la propension de Barack Obama à s'en excuser. Le "président n'a pas les mêmes sentiments que nous sur l'exceptionnalisme américain", a accusé Romney. Tous les pays ont leur propre marque de nationalisme écrasant, mais presque aucun n'est aussi manifestement universel, voire messianique, que cette croyance dans le caractère et le rôle particuliers de l'Amérique dans le monde. Bien que la mission puisse être vieille de plusieurs siècles, l'expression n'est entrée que récemment dans le lexique politique, après avoir été prononcée pour la première fois par nul autre que Joseph Staline. Aujourd'hui, le terme connaît une résurgence à une époque d'anxiété face au déclin américain.

1630
Alors que la Massachusetts Bay Company quitte l'Angleterre pour le Nouveau Monde, l'avocat puritain John Winthrop exhorte ses compagnons de voyage sur le Arabelle être comme une ville sur une colline, faisant allusion à une phrase du sermon de Jésus sur la montagne. Les colons doivent faire de la Nouvelle-Angleterre un modèle pour les futures colonies, note-t-il, car les "yeux de tous sont rivés sur nous".

1776
Dans "Common Sense", le pamphlétaire révolutionnaire Thomas Paine décrit l'Amérique comme un phare de liberté pour le monde. « La liberté a été chassée dans le monde entier », explique-t-il. L'Asie et l'Afrique l'ont expulsée depuis longtemps. L'Europe la regarde comme une étrangère, et l'Angleterre l'a avertie de partir. ! recevoir le fugitif, et préparer à temps un asile pour l'humanité.”

1840
Réfléchissant à ses voyages aux États-Unis dans son ouvrage fondateur, La démocratie en Amérique, l'intellectuel français Alexis de Tocqueville écrit que la "position des Américains" est "tout à fait exceptionnelle, et l'on peut croire qu'aucun peuple démocrate ne sera jamais placé dans une telle position".

1898
“Il n'y a qu'une seule spécialité chez nous, une seule chose qui peut être appelée par le nom large ‘American.’ C'est la dévotion nationale à l'eau glacée.… Je suppose que nous sommes seuls à prendre un verre que personne n'aime à part nous-mêmes.” —Mark Twain

1914
Le président américain Woodrow Wilson insuffle à Paine la notion des États-Unis en tant que bastion de la liberté avec un zèle missionnaire, affirmant que ce qui rend l'Amérique unique, c'est son devoir de répandre la liberté à l'étranger. "Je veux que vous emmeniez ces grands moteurs de force sur les mers comme des aventuriers enrôlés pour l'élévation de l'esprit de la race humaine", a déclaré Wilson aux diplômés de l'Académie navale des États-Unis. “Car c'est la seule distinction que possède l'Amérique.”

1929-1930
Inventant un nouveau terme, le dirigeant soviétique Joseph Staline condamne « l'hérésie de l'exceptionnalisme américain » tout en expulsant le leader communiste américain Jay Lovestone et ses partisans de l'Internationale communiste pour avoir soutenu que le capitalisme américain constitue une exception aux lois universelles du marxisme. En l'espace d'un an, le Parti communiste américain a adopté le terme désobligeant de Staline. « La tempête de la crise économique aux États-Unis a fait exploser le château de cartes de l'exceptionnalisme américain », déclare le parti, se réjouissant de la Grande Dépression.

1941
Faisant écho à Wilson, l'éditeur de magazine Henry Luce exhorte les États-Unis à entrer dans la Seconde Guerre mondiale et à échanger l'isolationnisme contre un « siècle américain » dans lequel il agit comme la « centrale électrique » de ces idéaux qui sont « surtout américains ». 8221

années 1950
Un groupe d'historiens américains - dont Daniel Boorstin, Louis Hartz, Richard Hofstadter et David Potter - affirme que les États-Unis ont forgé un "consensus" de valeurs libérales au fil du temps qui leur a permis d'éviter des mouvements tels que le fascisme. et le socialisme. Mais ils se demandent si ce caractère national unique peut être reproduit ailleurs. Comme l'écrit Boorstin, "rien ne pourrait être plus anti-américain que d'exhorter les autres pays à imiter l'Amérique".

1961
Le président John F. Kennedy suggère que le caractère distinctif de l'Amérique découle de sa détermination à incarner et à défendre la liberté partout dans le monde. Il invoque la "ville sur une colline" de Winthrop et déclare : être libre.”

1975
Dans un Affaires nationales essai, « The End of American Exceptionalism », le sociologue Daniel Bell exprime le scepticisme croissant dans le monde universitaire à l’égard du concept à la suite de la guerre du Vietnam et du scandale du Watergate. "Aujourd'hui, écrit-il, la croyance en l'exceptionnalisme américain a disparu avec la fin de l'empire, l'affaiblissement du pouvoir, la perte de confiance dans l'avenir de la nation".

1980
Ronald Reagan contredit la rhétorique du président Jimmy Carter sur une «crise de confiance nationale» avec des hymnes à la grandeur américaine pendant la campagne présidentielle. « J'ai toujours cru que cette terre bénie était mise à part d'une manière spéciale », explique plus tard Reagan.

1989
Les derniers jours de la guerre froide soulèvent la perspective que le modèle américain pourrait devenir la norme, et non l'exception. "Ce à quoi nous assistons n'est peut-être pas seulement la fin de la guerre froide" mais la "fin de l'histoire en tant que telle, c'est-à-dire… l'universalisation de la démocratie libérale occidentale en tant que forme finale de gouvernement humain", a déclaré le politologue. Célèbre Francis Fukuyama proclame.

Dans mon esprit, c'était une ville haute et fière construite sur des rochers plus forts que les océans, balayée par le vent, bénie de Dieu et grouillant de gens de toutes sortes vivant en harmonie et en paix.

1996
Dans un discours justifiant l'intervention de l'OTAN en Bosnie, le président Bill Clinton déclare que "l'Amérique reste la nation indispensable" et qu'"il y a des moments où l'Amérique, et seule l'Amérique, peut faire la différence entre la guerre et la paix, entre la liberté et la répression.”

2000
L'exceptionnalisme américain devient un sujet de discussion partisan alors que le futur rédacteur de discours de George W. Bush, Marc Thiessan, dans un Hebdomadaire Standard article, soutient qu'il existe deux visions concurrentes de l'internationalisme au 21e siècle : le « multilatéralisme mondial » des démocrates de Clinton-Gore – contre l'« exceptionnalisme américain » des républicains de Reagan-Bush .”

2004
“Comme des générations avant nous, nous avons un appel au-delà des étoiles pour défendre la liberté. C'est le rêve éternel de l'Amérique.” —George W. Bush

2007-2008
Au milieu du scepticisme quant au leadership mondial des États-Unis, alimenté par une guerre désastreuse en Irak et la crise financière mondiale, le démocrate Barack Obama se présente contre le musculeux « agenda pour la liberté » de Bush lors des élections pour lui succéder. "Je crois en l'exceptionnalisme américain", dit Obama, mais pas en fonction de "nos prouesses militaires ou de notre domination économique". #8221 dans le primaire par “explicite[ing] ‘American'” dans sa campagne.

2009
En tant qu'érudit critique — comme Godfrey Hodgson’s Le mythe de l'exceptionnalisme américain — prolifère, Obama devient le premier président américain en exercice à utiliser publiquement l'expression “l'exceptionnalisme américain”. "Je soupçonne que les Britanniques croient en l'exceptionnalisme britannique et les Grecs croient en l'exceptionnalisme grec - une phrase plus tard très citée par les républicains désireux de prouver son mépris pour l'unicité américaine.

2010
80 % des Américains pensent que les États-Unis « ont un caractère unique qui en fait le plus grand pays du monde ». Mais seulement 58 % pensent qu'Obama est d'accord. —États-Unis aujourd'hui/Sondage Gallup

2011-2012
Avec la montée en puissance de la course présidentielle, l'expression se réduit à un raccourci pour « qui aime le plus l'Amérique ». Après avoir fait le plaidoyer pour la grandeur américaine dans son livre de 2010 Pas d'excuses, le candidat du GOP, Mitt Romney, affirme qu'Obama pense que "l'Amérique n'est qu'une autre nation avec un drapeau". Le président, pour sa part, invoque la "nation indispensable" de Bill Clinton dans son discours sur l'état de l'Union et plus tard déclare, en réponse aux critiques républicains, « Toute ma carrière a été un témoignage de l'exceptionnalisme américain. » Si Staline savait ce qu'il a commencé.

En campagne électorale, Mitt Romney oppose sa vision de la grandeur américaine à ce qu'il prétend être la propension de Barack Obama à s'en excuser. Le "président n'a pas les mêmes sentiments que nous sur l'exceptionnalisme américain", a accusé Romney. Tous les pays ont leur propre marque de nationalisme écrasant, mais presque aucun n'est aussi manifestement universel, voire messianique, que cette croyance dans le caractère et le rôle particuliers de l'Amérique dans le monde. Bien que la mission puisse être vieille de plusieurs siècles, l'expression n'est entrée que récemment dans le lexique politique, après avoir été prononcée pour la première fois par nul autre que Joseph Staline. Aujourd'hui, le terme connaît une résurgence à une époque d'anxiété face au déclin américain.

1630
Alors que la Massachusetts Bay Company quitte l'Angleterre pour le Nouveau Monde, l'avocat puritain John Winthrop exhorte ses compagnons de voyage à Arabelle être comme une ville sur une colline, faisant allusion à une phrase du sermon de Jésus sur la montagne.Les colons doivent faire de la Nouvelle-Angleterre un modèle pour les futures colonies, note-t-il, car les "yeux de tous sont rivés sur nous".

1776
Dans "Common Sense", le pamphlétaire révolutionnaire Thomas Paine décrit l'Amérique comme un phare de liberté pour le monde. « La liberté a été chassée dans le monde entier », explique-t-il. L'Asie et l'Afrique l'ont expulsée depuis longtemps. L'Europe la regarde comme une étrangère, et l'Angleterre l'a avertie de partir. ! recevoir le fugitif, et préparer à temps un asile pour l'humanité.”

1840
Réfléchissant à ses voyages aux États-Unis dans son ouvrage fondateur, La démocratie en Amérique, l'intellectuel français Alexis de Tocqueville écrit que la "position des Américains" est "tout à fait exceptionnelle, et l'on peut croire qu'aucun peuple démocrate ne sera jamais placé dans une telle position".

1898
“Il n'y a qu'une seule spécialité chez nous, une seule chose qui peut être appelée par le nom large ‘American.’ C'est la dévotion nationale à l'eau glacée.… Je suppose que nous sommes seuls à prendre un verre que personne n'aime à part nous-mêmes.” —Mark Twain

1914
Le président américain Woodrow Wilson insuffle à Paine la notion des États-Unis en tant que bastion de la liberté avec un zèle missionnaire, affirmant que ce qui rend l'Amérique unique, c'est son devoir de répandre la liberté à l'étranger. "Je veux que vous emmeniez ces grands moteurs de force sur les mers comme des aventuriers enrôlés pour l'élévation de l'esprit de la race humaine", a déclaré Wilson aux diplômés de l'Académie navale des États-Unis. “Car c'est la seule distinction que possède l'Amérique.”

1929-1930
Inventant un nouveau terme, le dirigeant soviétique Joseph Staline condamne « l'hérésie de l'exceptionnalisme américain » tout en expulsant le leader communiste américain Jay Lovestone et ses partisans de l'Internationale communiste pour avoir soutenu que le capitalisme américain constitue une exception aux lois universelles du marxisme. En l'espace d'un an, le Parti communiste américain a adopté le terme désobligeant de Staline. « La tempête de la crise économique aux États-Unis a fait exploser le château de cartes de l'exceptionnalisme américain », déclare le parti, se réjouissant de la Grande Dépression.

1941
Faisant écho à Wilson, l'éditeur de magazine Henry Luce exhorte les États-Unis à entrer dans la Seconde Guerre mondiale et à échanger l'isolationnisme contre un « siècle américain » dans lequel il agit comme la « centrale électrique » de ces idéaux qui sont « surtout américains ». 8221

années 1950
Un groupe d'historiens américains - dont Daniel Boorstin, Louis Hartz, Richard Hofstadter et David Potter - affirme que les États-Unis ont forgé un "consensus" de valeurs libérales au fil du temps qui leur a permis d'éviter des mouvements tels que le fascisme. et le socialisme. Mais ils se demandent si ce caractère national unique peut être reproduit ailleurs. Comme l'écrit Boorstin, "rien ne pourrait être plus anti-américain que d'exhorter les autres pays à imiter l'Amérique".

1961
Le président John F. Kennedy suggère que le caractère distinctif de l'Amérique découle de sa détermination à incarner et à défendre la liberté partout dans le monde. Il invoque la "ville sur une colline" de Winthrop et déclare : être libre.”

1975
Dans un Affaires nationales essai, « The End of American Exceptionalism », le sociologue Daniel Bell exprime le scepticisme croissant dans le monde universitaire à l’égard du concept à la suite de la guerre du Vietnam et du scandale du Watergate. "Aujourd'hui, écrit-il, la croyance en l'exceptionnalisme américain a disparu avec la fin de l'empire, l'affaiblissement du pouvoir, la perte de confiance dans l'avenir de la nation".

1980
Ronald Reagan contredit la rhétorique du président Jimmy Carter sur une «crise de confiance nationale» avec des hymnes à la grandeur américaine pendant la campagne présidentielle. « J'ai toujours cru que cette terre bénie était mise à part d'une manière spéciale », explique plus tard Reagan.

1989
Les derniers jours de la guerre froide soulèvent la perspective que le modèle américain pourrait devenir la norme, et non l'exception. "Ce à quoi nous assistons n'est peut-être pas seulement la fin de la guerre froide" mais la "fin de l'histoire en tant que telle, c'est-à-dire… l'universalisation de la démocratie libérale occidentale en tant que forme finale de gouvernement humain", a déclaré le politologue. Célèbre Francis Fukuyama proclame.

Dans mon esprit, c'était une ville haute et fière construite sur des rochers plus forts que les océans, balayée par le vent, bénie de Dieu et grouillant de gens de toutes sortes vivant en harmonie et en paix.

1996
Dans un discours justifiant l'intervention de l'OTAN en Bosnie, le président Bill Clinton déclare que "l'Amérique reste la nation indispensable" et qu'"il y a des moments où l'Amérique, et seule l'Amérique, peut faire la différence entre la guerre et la paix, entre la liberté et la répression.”

2000
L'exceptionnalisme américain devient un sujet de discussion partisan alors que le futur rédacteur de discours de George W. Bush, Marc Thiessan, dans un Hebdomadaire Standard article, soutient qu'il existe deux visions concurrentes de l'internationalisme au 21e siècle : le « multilatéralisme mondial » des démocrates de Clinton-Gore – contre l'« exceptionnalisme américain » des républicains de Reagan-Bush .”

2004
“Comme des générations avant nous, nous avons un appel au-delà des étoiles pour défendre la liberté. C'est le rêve éternel de l'Amérique.” —George W. Bush

2007-2008
Au milieu du scepticisme quant au leadership mondial des États-Unis, alimenté par une guerre désastreuse en Irak et la crise financière mondiale, le démocrate Barack Obama se présente contre le musculeux « agenda pour la liberté » de Bush lors des élections pour lui succéder. "Je crois en l'exceptionnalisme américain", dit Obama, mais pas en fonction de "nos prouesses militaires ou de notre domination économique". #8221 dans le primaire par “explicite[ing] ‘American'” dans sa campagne.

2009
En tant qu'érudit critique — comme Godfrey Hodgson’s Le mythe de l'exceptionnalisme américain — prolifère, Obama devient le premier président américain en exercice à utiliser publiquement l'expression “l'exceptionnalisme américain”. "Je soupçonne que les Britanniques croient en l'exceptionnalisme britannique et les Grecs croient en l'exceptionnalisme grec - une phrase plus tard très citée par les républicains désireux de prouver son mépris pour l'unicité américaine.

2010
80 % des Américains pensent que les États-Unis « ont un caractère unique qui en fait le plus grand pays du monde ». Mais seulement 58 % pensent qu'Obama est d'accord. —États-Unis aujourd'hui/Sondage Gallup

2011-2012
Avec la montée en puissance de la course présidentielle, l'expression se réduit à un raccourci pour « qui aime le plus l'Amérique ». Après avoir fait le plaidoyer pour la grandeur américaine dans son livre de 2010 Pas d'excuses, le candidat du GOP, Mitt Romney, affirme qu'Obama pense que "l'Amérique n'est qu'une autre nation avec un drapeau". Le président, pour sa part, invoque la "nation indispensable" de Bill Clinton dans son discours sur l'état de l'Union et plus tard déclare, en réponse aux critiques républicains, « Toute ma carrière a été un témoignage de l'exceptionnalisme américain. » Si Staline savait ce qu'il a commencé.

Uri Friedman est rédacteur en chef adjoint de Foreign Policy. Avant de rejoindre FP , il a travaillé pour le Moniteur de la Science Chrétienne, a travaillé sur la stratégie d'entreprise pour Atlantic Media, a aidé au lancement du Fil de l'Atlantique, et a couvert les affaires internationales pour le site. Fier natif de Philadelphie, en Pennsylvanie, il a étudié l'histoire européenne à l'Université de Pennsylvanie et a vécu à Barcelone, en Espagne, et à Genève, en Suisse. Twitter : @UriLF


Armes [ ]

". Stygius, la Lame des Enfers, doit avoir été parmi les meilleures armes jamais utilisées, à l'époque où elle était entière. "


Le modèle d'attaque par défaut de la lame est un combo long à trois oscillations composé d'un mélange d'oscillations larges et directionnelles. La spéciale crée une petite rafale autour de vous après un court saut et vous laisse immobile pendant une courte période.

". Cela a dû être un spectacle lorsque Lord Hadès a brandi Varatha la lance éternelle contre les Titans, repoussant ces démons dans les profondeurs, avec l'aide de ses frères et sœurs olympiens. "


Attaques répétées au couteau à longue portée qui peuvent être chargées pour déclencher une attaque en rotation infligeant des dégâts importants dans un large rayon. Le spécial lance la lance, qui endommagera les ennemis sur son chemin jusqu'à ce qu'elle s'arrête. L'activation du spécial rappelle à nouveau la lance, qui infligera des dégâts sur le chemin du retour.

". Aegis, le Bouclier du Chaos, prédécesseur du même Aegis exercé par le Seigneur Zeus et par Athéna, sa fille la plus favorisée. le Seigneur du Tonnerre a défendu ses frères et sœurs en utilisant ce même bouclier, puis, ensemble, ils ont conspiré pour repousser les Titans dans les confins les plus bas des Enfers. "


L'attaque principale est un seul coup qui frappe en arc de cercle et repousse les ennemis. Maintenir le bouton d'attaque bloquera les dégâts de l'avant, tout en chargeant le "Bull Rush". Le relâcher effectuera un coup de bouclier vers l'avant, infligeant des dégâts aux ennemis touchés. Le spécial lance le bouclier, qui rebondit entre les ennemis et les objets avant de revenir.

". Coronacht, le soi-disant Heart-Seeker, est certainement le plus bel arc jamais conçu et brandi une fois par nul autre que Maîtresse Hera, qui se tenait aux côtés de Zeus, en meilleurs termes à l'époque, alors qu'ils repoussaient les Titans sous une tempête. de flèches et de tonnerre. "


Attaques à distance qui touchent les ennemis à distance. L'attaque principale peut être chargée pour augmenter la distance et les dégâts, libérant au bon moment pour des dégâts supplémentaires. Le spécial projette des flèches dans un cône devant vous, infligeant 10 dégâts chacun.

". Qu'est-ce qu'une arme sinon l'extension de sa volonté de survivre, de détruire ? Les anciens maîtres de forge cyclopéens qui ont créé les armes infernales conformément au dessein des Parques ont dû le comprendre lorsqu'ils ont livré les singuliers poings jumeaux de Malphon en secret aux dieux. "


Attaques combinées rapides et répétitives à courte portée utilisant les poings en combat rapproché. La spéciale est un uppercut qui frappe deux fois. Cette arme est unique car il s'agit du seul bras infernal avec un tiret spécial si le spécial est utilisé pendant le dash, il coupera plus rapidement mais ne frappera qu'une seule fois.

". La moins connue parmi les dieux qui se sont unis pour renverser les Titans est la Dame Hestia, déesse recluse du foyer et ancienne utilisatrice d'Exagryph, le Rail d'Adamant, un artefact de métal et de flamme si terrible que les dieux eux-mêmes l'ont abandonné une fois leur travail abattu. "


Tir automatique ou manuel (selon que Attack est enfoncé ou maintenu) qui doit être rechargé une fois que toutes les munitions sont utilisées. Le spécial lance une grenade pour bombarder la zone cible, ce qui prend peu de temps pour arriver mais inflige des dégâts dans une zone une fois qu'il a atterri.


Traité international des droits de l'homme

En 2006, l'Assemblée générale des Nations Unies a adopté la Convention relative aux droits des personnes handicapées, premier traité majeur des droits de l'homme du 21e siècle. Le Congrès américain ne l'a pas encore ratifié.

Plusieurs années plus tard, le Congrès a adopté la Loi sur la prévention des crimes haineux, étendant la loi fédérale pour couvrir les crimes motivés par le handicap d'une personne.

D'énormes progrès ont été accomplis grâce à l'engagement des personnes handicapées et de leurs familles. Mais beaucoup reste à faire. Les stéréotypes continuent d'imprégner notre société. Les personnes handicapées souffrent d'une incidence beaucoup plus élevée d'intimidation et d'autres formes d'abus que la population générale. Le chômage est élevé et trop de personnes souhaitant vivre au sein de la communauté restent institutionnalisées.

Cela nécessitera un plaidoyer et une protection continus des services et des soutiens durement gagnés disponibles dans le cadre des programmes gouvernementaux pour parvenir à la pleine inclusion des personnes handicapées dans les activités quotidiennes de la société.