_id
stringlengths 2
130
| text
stringlengths 35
7.69k
|
---|---|
United_States_and_weapons_of_mass_destruction
|
Les États-Unis sont connus pour avoir possédé trois types d'armes de destruction massive : les armes nucléaires, les armes chimiques et les armes biologiques. Les États-Unis sont le seul pays à avoir utilisé des armes nucléaires au combat, lorsqu'ils ont fait exploser deux bombes atomiques sur les villes japonaises d'Hiroshima et de Nagasaki pendant la Seconde Guerre mondiale. Elle avait secrètement développé la première forme d'arme atomique dans les années 1940 sous le titre de « Projet Manhattan ». Les États-Unis ont été les pionniers du développement de la fission nucléaire et des bombes à hydrogène (cette dernière impliquant la fusion nucléaire). Elle a été la première et la seule puissance nucléaire au monde pendant quatre ans (1945-1949), jusqu'à ce que l'Union soviétique réussisse à produire sa propre arme nucléaire. Les États-Unis ont le deuxième plus grand nombre d'armes nucléaires déployées dans le monde, après la Russie.
|
Typical_meteorological_year
|
Une année météorologique typique est une compilation de données météorologiques sélectionnées pour un lieu spécifique, générées à partir d'une banque de données d'une durée beaucoup plus longue qu'un an. Il est spécialement choisi pour présenter l'éventail des phénomènes météorologiques de l'endroit en question, tout en donnant des moyennes annuelles cohérentes avec les moyennes à long terme de l'endroit en question. Les données TMY sont fréquemment utilisées dans la simulation de bâtiments, afin d'évaluer les coûts de chauffage et de refroidissement prévus pour la conception du bâtiment. Il est également utilisé par les concepteurs de systèmes d'énergie solaire, y compris les systèmes d'eau chaude sanitaire solaire et les centrales solaires thermiques à grande échelle. La première collection TMY était basée sur 229 sites aux États-Unis et a été collectée entre 1948 et 1980. La deuxième édition de la TMY s'intitule « TMY 2 ». Il est basé sur 239 stations collectant des données entre 1961 et 1990. Les données TMY2 comprennent la colonne d'eau précipitable (humidité précipitable), ce qui est important pour prédire le refroidissement radiatif. La troisième et dernière collecte de TMY (TMY3) était basée sur les données de 1020 emplacements aux États-Unis, y compris Guam, Porto Rico et les îles Vierges américaines, dérivées d'une période d'enregistrement de 1976 à 2005 lorsqu'elle était disponible, et d'une période d'enregistrement de 1991 à 2005 pour tous les autres emplacements. Les TMY sont des ensembles de données contenant des valeurs horaires du rayonnement solaire et des éléments météorologiques pour une période d'un an. Ils sont destinés à la simulation informatique de systèmes de conversion d'énergie solaire et de systèmes de bâtiment afin de faciliter les comparaisons de performances de différents types de systèmes, configurations et emplacements aux États-Unis et dans ses territoires. Parce qu'ils représentent des conditions typiques plutôt qu'extrêmes, ils ne sont pas adaptés à la conception de systèmes pour répondre aux pires conditions se produisant à un endroit. Les données sources peuvent être téléchargées sur le site du National Renewable Energy Laboratory. Les progiciels commerciaux prenant en charge les simulations à l'aide des données TMY comprennent TRNSYS, PV * SOL et PVscout PVSyst. Les données TMY spécifiques à des emplacements spécifiques devront généralement être payées. D'autre part, un package de simulation avancé, complet et gratuit développé grâce au financement du ministère américain de l'Énergie, appelé EnergyPlus, lit également les fichiers de données TMY3, et un grand nombre d'entre eux sont disponibles gratuitement sur leur site Web. Le NREL donne accès aux ensembles de données TMY2 et TMY3 et utilise également ces ensembles de données dans son calculateur d'énergie solaire en ligne PVWatts. Un examen complet et exhaustif des dossiers météorologiques, y compris TMY, se trouve dans Herrera et al., 2017.
|
Typhoon
|
Un typhon est un cyclone tropical mature qui se développe dans la partie occidentale de l'océan Pacifique Nord entre 180° et 100°E. Cette région est appelée le bassin du Pacifique Nord-Ouest et est le bassin de cyclones tropicaux le plus actif de la planète, représentant près d'un tiers des cyclones tropicaux annuels dans le monde. À des fins d'organisation, le nord de l'océan Pacifique est divisé en trois régions : l'est (Amérique du Nord à 140 ° W), centrale (140 ° à 180 ° W) et occidentale (180 ° à 100 ° E). Le Centre météorologique régional spécialisé (CMRS) pour les prévisions de cyclones tropicaux se trouve au Japon, avec d'autres centres d'alerte aux cyclones tropicaux pour le nord-ouest du Pacifique à Hawaï (le Centre conjoint d'alerte aux typhons), aux Philippines et à Hong Kong. Bien que le CMRS nomme chaque système, la liste de noms principale elle-même est coordonnée entre 18 pays dont les territoires sont menacés par des typhons chaque année. Seules les Philippines utilisent leur propre liste de noms pour les systèmes approchant le pays. Un typhon ne diffère d'un cyclone ou d'un ouragan que par sa localisation. Un ouragan est une tempête qui se produit dans l'océan Atlantique et le nord-est de l'océan Pacifique, un typhon se produit dans le nord-ouest de l'océan Pacifique et un cyclone se produit dans le Pacifique sud ou l'océan Indien. Dans le nord-ouest du Pacifique, il n'y a pas de saisons officielles de typhons car des cyclones tropicaux se forment tout au long de l'année. Comme tout cyclone tropical, il y a six conditions principales pour la formation et le développement d'un typhon : des températures de surface de la mer suffisamment chaudes, une instabilité atmosphérique, une humidité élevée dans les niveaux inférieurs à moyens de la troposphère, une force de Coriolis suffisante pour développer un centre de basse pression, un foyer ou une perturbation préexistante de bas niveau et un faible cisaillement vertical du vent. Alors que la majorité des tempêtes se forment entre juin et novembre, quelques tempêtes se produisent entre décembre et mai (bien que la formation de cyclones tropicaux soit au minimum pendant cette période). En moyenne, le nord-ouest du Pacifique est le pays où les cyclones tropicaux sont les plus nombreux et les plus intenses au monde. Comme d'autres bassins, ils sont dirigés par la crête subtropicale vers l'ouest ou le nord-ouest, certains systèmes se recourbant près et à l'est du Japon. Les Philippines sont les plus touchées, la Chine et le Japon étant légèrement moins touchés. Certains des typhons les plus meurtriers de l'histoire ont frappé la Chine. Le sud de la Chine possède le plus long enregistrement d'impacts de typhons dans la région, avec un échantillon de mille ans provenant de documents dans leurs archives. Taïwan a reçu le typhon le plus humide jamais enregistré pour les bassins cycloniques tropicaux du nord-ouest du Pacifique.
|
Value-added_tax_(United_Kingdom)
|
La taxe sur la valeur ajoutée ou taxe sur la valeur ajoutée (TVA) est une taxe à la consommation prélevée au Royaume-Uni par le gouvernement national. Il a été introduit en 1973 et est la troisième plus grande source de revenus gouvernementaux, après l'impôt sur le revenu et l'assurance nationale. Il est administré et collecté par HM Revenue and Customs, principalement par le biais de la loi de 1994 sur la taxe sur la valeur ajoutée. La TVA est prélevée sur la plupart des biens et services fournis par des entreprises enregistrées au Royaume-Uni et sur certains biens et services importés de l'extérieur de l'Union européenne. Il existe des réglementations complexes pour les biens et services importés de l'UE. Le taux de TVA par défaut est le taux normal, soit 20 % depuis le 4 janvier 2011. Certains biens et services sont soumis à la TVA à un taux réduit de 5 % (comme les carburants domestiques) ou de 0 % (comme la plupart des produits alimentaires et des vêtements pour enfants). D'autres sont exonérés de TVA ou carrément hors du système. En vertu de la législation de l'UE, le taux normal de TVA dans un État de l'UE ne peut être inférieur à 15 %. Chaque État peut appliquer jusqu'à deux taux réduits d'au moins 5 % pour une liste restreinte de biens et de services. Le Conseil européen doit approuver toute réduction temporaire de la TVA dans l'intérêt général. La TVA est un impôt indirect car l'impôt est payé au gouvernement par le vendeur (l'entreprise) plutôt que par la personne qui supporte en fin de compte le fardeau économique de l'impôt (le consommateur). Les opposants à la TVA affirment qu'il s'agit d'un impôt régressif parce que les personnes les plus pauvres consacrent une proportion plus élevée de leur revenu disponible à la TVA que les personnes les plus riches. Les partisans de la TVA affirment qu'elle est progressiste car les consommateurs qui dépensent plus paient plus de TVA.
|
United_Nations_Environment_Organization
|
Les propositions de création d'une Organisation des Nations Unies pour l'environnement (ONUE) ont été formulées alors que certains remettent en question l'efficacité de l'actuel Programme des Nations Unies pour l'environnement (PNUE) à faire face à l'ampleur des problèmes environnementaux mondiaux. Créée pour agir en tant qu'institution d'ancrage dans le système de gouvernance mondiale de l'environnement (GEG), elle n'a pas réussi à répondre à ces exigences. Le PNUE a été entravé par son titre de programme par opposition à une agence spécialisée comme l'OMC ou l'OMS, en plus d'un manque de financement volontaire et d'un emplacement éloigné des centres de pouvoir politique, à Nairobi, au Kenya. Ces facteurs ont conduit à de nombreux appels à la réforme du PNUE, et suite à la publication du quatrième rapport d'évaluation du GIEC en février 2007, un « Appel à l'action de Paris » lu par le président français Chirac et soutenu par 46 pays, a appelé à ce que le PNUE soit remplacé par une nouvelle Organisation des Nations Unies pour l'environnement plus puissante. à modeler sur l'Organisation mondiale de la santé. Les 52 pays comprenaient les pays de l'Union européenne, mais n'incluaient pas les États-Unis et les BRIC (Brésil, Russie, Inde et Chine), les cinq principaux émetteurs de gaz à effet de serre.
|
Urban_decay
|
La décomposition urbaine (également connue sous le nom de pourriture urbaine et de délabrement urbain) est le processus par lequel une ville ou une partie d'une ville qui fonctionnait auparavant tombe dans le délabrement et la décrépitude. Il peut s'agir de désindustrialisation, de dépeuplement ou de changement de population, de restructurations, de bâtiments abandonnés, d'un taux de chômage local élevé, de familles fragmentées, d'une privation politique, de la criminalité et d'un paysage urbain désolé et inhospitalier. Depuis les années 1970 et 1980, le déclin urbain a été associé aux villes occidentales, en particulier en Amérique du Nord et dans certaines parties de l'Europe (principalement en Grande-Bretagne et en France). Depuis lors, des changements structurels majeurs dans les économies mondiales, les transports et les politiques gouvernementales ont créé les conditions économiques puis sociales qui ont entraîné le déclin urbain. Les effets contrecarrent le développement de la plupart des pays d'Europe et d'Amérique du Nord ; Sur d'autres continents, la décadence urbaine se manifeste dans les bidonvilles périphériques à la périphérie d'une métropole, tandis que le centre-ville et le centre-ville conservent des valeurs immobilières élevées et soutiennent une population en constante augmentation. En revanche, les villes nord-américaines et britanniques connaissent souvent des exodes de population vers les banlieues et les villes de banlieue ; souvent sous la forme d'un vol blanc. Une autre caractéristique de la décadence urbaine est le flétrissement - les effets visuels, psychologiques et physiques de la vie parmi les terrains vagues, les bâtiments et les maisons condamnées. Ces propriétés désolées sont socialement dangereuses pour la communauté parce qu'elles attirent les criminels et les gangs de rue, ce qui contribue au volume de la criminalité. Le déclin urbain n'a pas de cause unique. Il résulte d'une combinaison de conditions socio-économiques interdépendantes, y compris les décisions d'urbanisme de la ville, le contrôle strict des loyers, la pauvreté de la population locale, la construction de routes autoroutières et de lignes de chemin de fer qui contournent la région, le dépeuplement par la suburbanisation des terres périphériques, le redlining des quartiers immobiliers et les restrictions à l'immigration.
|
United_Nations_Convention_to_Combat_Desertification
|
La Convention des Nations Unies sur la lutte contre la désertification dans les pays gravement touchés par la sécheresse et/ou la désertification, en particulier en Afrique (CNULCD) est une convention visant à lutter contre la désertification et à atténuer les effets de la sécheresse par le biais de programmes d'action nationaux qui intègrent des stratégies à long terme soutenues par des accords de coopération et de partenariat internationaux. La Convention, la seule convention découlant d'une recommandation directe de l'Agenda 21 de la Conférence de Rio, a été adoptée à Paris, en France, le 17 juin 1994 et est entrée en vigueur en décembre 1996. Il s'agit du seul cadre juridiquement contraignant mis en place au niveau international pour s'attaquer au problème de la désertification. La Convention est fondée sur les principes de la participation, du partenariat et de la décentralisation, qui sont l'épine dorsale de la bonne gouvernance et du développement durable. Il compte 196 partis, ce qui le rend presque universel. Pour aider à faire connaître la Convention, 2006 a été déclarée « Année internationale des déserts et de la désertification », mais des débats ont eu lieu sur l'efficacité de l'Année internationale dans la pratique.
|
USA-211
|
USA-211, ou Wideband Global Satcom 3 (WGS-3) est un satellite de télécommunications militaire américain exploité par l'armée de l'air des États-Unis dans le cadre du programme Wideband Global Satcom. Lancé en 2009, il s'agit du troisième satellite WGS, et du dernier vaisseau spatial du bloc I, à atteindre l'orbite. Il est stationné à 12° Ouest en orbite géostationnaire. Construit par Boeing, l'USA-211 est basé sur la plateforme satellite BSS-702. Il avait une masse au lancement de 5987 kg et devait fonctionner pendant quatorze ans. Le vaisseau spatial est équipé de deux panneaux solaires pour générer de l'énergie pour sa charge utile de communication, qui se compose de répéteurs en bande X et Ka. La propulsion est assurée par un moteur d'apogée R-4D-15, avec quatre moteurs ioniques XIPS-25 pour le maintien en position. USA-211 a été lancé par United Launch Alliance, qui l'a placé en orbite à l'aide d'une fusée Delta IV, qui a volé pour la première fois en configuration Medium + (5, 4). Le lancement a eu lieu depuis le complexe de lancement spatial 37B de la base aérienne de Cap Canaveral, à 01:47:00 UTC le 6 décembre 2009. Le lancement a été un succès, plaçant le satellite sur une orbite de transfert géosynchrone, à partir de laquelle il s'est élevé en orbite géostationnaire à l'aide de son système de propulsion. Après son lancement, le satellite a été désigné USA-211 par le système de désignation de l'armée américaine, et a reçu l'indicatif international 2009-068A et le numéro de catalogue satellite 36108.
|
Universe
|
L'Univers est tout le temps et l'espace et son contenu, qui comprend les planètes, les lunes, les planètes mineures, les étoiles, les galaxies, le contenu de l'espace intergalactique et toute la matière et l'énergie. Bien que la taille de l'Univers entier soit encore inconnue, les premiers modèles scientifiques de l'Univers ont été développés par les anciens philosophes grecs et indiens et étaient géocentriques, plaçant la Terre au centre de l'Univers. Au fil des siècles, des observations astronomiques plus précises ont conduit Nicolas Copernic (1473 -- 1543) à développer le modèle héliocentrique avec le Soleil au centre du système solaire. En développant la loi de la gravitation universelle, Sir Isaac Newton (NS : 1643 -- 1727) s'est appuyé sur les travaux de Copernic ainsi que sur les observations de Tycho Brahe (1546 -- 1601) et les lois de Johannes Kepler (1571 -- 1630) sur le mouvement des planètes. D'autres améliorations de l'observation ont permis de réaliser que notre système solaire est situé dans la galaxie de la Voie lactée, qui est l'une des nombreuses galaxies de l'Univers. On suppose que les galaxies sont distribuées uniformément et de la même manière dans toutes les directions, ce qui signifie que l'Univers n'a ni bord ni centre. Les découvertes du début du XXe siècle ont suggéré que l'Univers a eu un début et qu'il s'étend à un rythme croissant. La majorité de la masse de l'Univers semble exister sous une forme inconnue appelée matière noire. La théorie du Big Bang est la description cosmologique dominante du développement de l'Univers. Selon cette théorie, l'espace et le temps sont apparus ensemble il y a longtemps avec une quantité fixe d'énergie et de matière qui est devenue moins dense à mesure que l'Univers s'est étendu. Après l'expansion initiale, l'Univers s'est refroidi, permettant la formation des premières particules subatomiques, puis des atomes simples. Des nuages géants ont ensuite fusionné par gravité pour former des galaxies, des étoiles et tout ce que l'on voit aujourd'hui. Il existe de nombreuses hypothèses concurrentes sur le destin ultime de l'Univers et sur ce qui, le cas échéant, a précédé le Big Bang, tandis que d'autres physiciens et philosophes refusent de spéculer, doutant que les informations sur les états antérieurs soient jamais accessibles. Certains physiciens ont suggéré diverses hypothèses multivers, dans lesquelles l'Univers pourrait être l'un des nombreux univers qui existent également.
|
Underdevelopment
|
Le sous-développement, lié au développement international, reflète une condition ou des phénomènes généraux définis et critiqués par les théoriciens dans des domaines tels que l'économie, les études sur le développement et les études postcoloniales. Utilisé principalement pour distinguer les États selon des critères concernant le développement humain – tels que la croissance macro-économique, la santé, l'éducation et le niveau de vie – un État « sous-développé » est présenté comme l'antithèse d'un État « développé », moderne ou industrialisé. Les images popularisées et dominantes des États sous-développés incluent ceux qui ont des économies moins stables, des régimes politiques moins démocratiques, une plus grande pauvreté, la malnutrition et des systèmes de santé publique et d'éducation plus pauvres.
|
United_States_Geological_Survey
|
L'United States Geological Survey (USGS, anciennement simplement Geological Survey) est une agence scientifique du gouvernement des États-Unis. Les scientifiques de l'USGS étudient le paysage des États-Unis, ses ressources naturelles et les risques naturels qui les menacent. L'organisation comprend quatre disciplines scientifiques principales, soit la biologie, la géographie, la géologie et l'hydrologie. L'USGS est un organisme de recherche qui n'a aucune responsabilité réglementaire. L'USGS est un bureau du ministère de l'Intérieur des États-Unis. C'est le seul organisme scientifique de ce ministère. L'USGS emploie environ 8 670 personnes et son siège social est situé à Reston, en Virginie. L'USGS possède également des bureaux importants près de Lakewood, dans le Colorado, au Denver Federal Center et à Menlo Park, en Californie. La devise actuelle de l'USGS, en usage depuis août 1997, est « la science pour un monde qui change ». Le précédent slogan de l'agence, adopté à l'occasion de son centième anniversaire, était « Les sciences de la Terre dans la fonction publique ».
|
United_States_Senate_election_in_California,_2016
|
L'élection sénatoriale américaine de 2016 en Californie a eu lieu le 8 novembre 2016 pour élire un membre du Sénat des États-Unis pour représenter l'État de Californie, en même temps que l'élection présidentielle américaine de 2016, ainsi que d'autres élections au Sénat des États-Unis dans d'autres États et des élections à la Chambre des représentants des États-Unis et diverses élections étatiques et locales. En vertu de la loi californienne sur les primaires non partisanes, tous les candidats apparaissent sur le même bulletin de vote, quel que soit leur parti. Lors des primaires, les électeurs peuvent voter pour n'importe quel candidat, quelle que soit son affiliation politique. Dans le système californien, les deux premiers arrivés - quel que soit le parti - se qualifient pour les élections générales de novembre, même si un candidat parvient à recevoir la majorité des voix exprimées lors de l'élection primaire. Washington et la Louisiane ont des processus similaires de type « primaire de la jungle » pour les sénateurs. La sénatrice démocrate sortante Barbara Boxer a décidé de ne pas se représenter pour un cinquième mandat. Il s'agissait de la première élection sénatoriale à siège ouvert en Californie depuis 24 ans. Lors de la primaire du 7 juin 2016, la procureure générale de Californie, Kamala Harris, et la représentante des États-Unis, Loretta Sanchez, toutes deux démocrates, ont terminé respectivement à la première et à la deuxième place et ont participé aux élections générales. Le républicain qui a obtenu le meilleur résultat dans la primaire n'en a remporté que 7. 8 % des voix ; c'était la première fois depuis le début des élections directes au Sénat après l'adoption du dix-septième amendement en 1913 qu'un républicain n'apparaissait pas sur le bulletin de vote des élections générales pour le Sénat américain en Californie. Aux élections générales, Harris battit Sanchez dans un raz-de-marée, remportant tous les comtés sauf Glenn et Imperial.
|
Ursus_americanus_carlottae
|
L'ours noir de Haida Gwaii (Ursus americanus carlottae) est une sous-espèce morphologiquement distincte de l'ours noir d'Amérique. Les différences morphologiques les plus importantes sont sa grande taille, son crâne massif et ses grandes molaires. Cette sous-espèce est endémique à Haida Gwaii (îles de la Reine-Charlotte) et est considérée comme une « espèce clé » en raison du transport de restes de saumon par les ours dans les forêts environnantes de Haida Gwaii.
|
Typhoon_Haiyan
|
Le typhon Haiyan, connu sous le nom de super typhon Yolanda aux Philippines, a été l'un des cyclones tropicaux les plus intenses jamais enregistrés. En touchant terre, Haiyan a dévasté des parties de l'Asie du Sud-Est, en particulier les Philippines. Il s'agit du typhon le plus meurtrier jamais enregistré aux Philippines, tuant au moins 6 300 personnes dans ce seul pays. En termes de vents soutenus d'une minute environ, Haiyan est le cyclone tropical le plus puissant jamais enregistré. En janvier 2014, des corps étaient encore retrouvés. Treizième tempête nommée de la saison 2013 des typhons du Pacifique, Haiyan est originaire d'une zone de basse pression à plusieurs centaines de kilomètres à l'est-sud-est de Pohnpei dans les États fédérés de Micronésie le 2 novembre 2013. En se déplaçant généralement vers l'ouest, les conditions environnementales ont favorisé la cyclogenèse tropicale et le système s'est transformé en dépression tropicale le lendemain. Après être devenu une tempête tropicale et avoir atteint le nom de Haiyan à 0000 UTC le 4 novembre, le système a entamé une période d'intensification rapide qui l'a amené à l'intensité d'un typhon à 1800 UTC le 5 novembre. Le 6 novembre, le Joint Typhoon Warning Center (JTWC) a évalué le système comme un super typhon de catégorie 5 sur l'échelle des vents d'ouragan de Saffir-Simpson. la tempête est passée sur l'île de Kayangel aux Palaos peu de temps après avoir atteint cette force. Par la suite, elle a continué à s'intensifier ; à 1200 UTC le 7 novembre, l'Agence météorologique japonaise (JMA) a relevé les vents soutenus maximums de dix minutes de la tempête à 230 km/h (145 mph), les plus élevés par rapport au cyclone. L'Observatoire de Hong Kong a estimé que les vents soutenus maximums de la tempête pendant dix minutes étaient de 285 km/h (180 mph) avant de toucher terre dans le centre des Philippines, tandis que l'Administration météorologique chinoise a estimé que les vents soutenus maximums de deux minutes à l'époque étaient d'environ 78 m/s (280 km/h ou 175 mph). Dans le même temps, le JTWC a estimé les vents soutenus d'une minute du système à 315 km/h (195 mph), faisant officieusement de Haiyan le cyclone tropical le plus fort jamais observé sur la base de la vitesse du vent, un record qui sera ensuite dépassé par l'ouragan Patricia en 2015 à 345 km/h (215 mph). Haiyan est également le cyclone tropical le plus puissant de l'hémisphère oriental en termes de vitesse du vent. Plusieurs autres ont enregistré des lectures de pression centrale plus basses. Quelques heures plus tard, l'œil du cyclone a touché terre pour la première fois aux Philippines à Guiuan, dans l'est du Samar. S'affaiblissant progressivement, la tempête a touché terre cinq fois plus dans le pays avant d'émerger au-dessus de la mer de Chine méridionale. Tournant vers le nord-ouest, le typhon a finalement frappé le nord du Vietnam sous la forme d'une violente tempête tropicale le 10 novembre. Haiyan a été noté pour la dernière fois comme une dépression tropicale par la JMA le lendemain. Le cyclone a causé des destructions catastrophiques dans les Visayas, en particulier à Samar et à Leyte. Selon des responsables de l'ONU, environ 11 millions de personnes ont été touchées, dont beaucoup se sont retrouvées sans abri.
|
Variable_star
|
Une étoile variable est une étoile dont la luminosité, vue de la Terre (sa magnitude apparente), fluctue. Cette variation peut être causée par un changement dans la lumière émise ou par quelque chose qui bloque partiellement la lumière, de sorte que les étoiles variables sont classées soit comme : Variables intrinsèques, dont la luminosité change réellement ; Par exemple, parce que l'étoile gonfle et rétrécit périodiquement. Variables extrinsèques, dont les changements apparents de luminosité sont dus à des changements dans la quantité de leur lumière qui peut atteindre la Terre ; Par exemple, parce que l'étoile a un compagnon en orbite qui l'éclipse parfois. De nombreuses étoiles, peut-être la plupart, ont au moins une certaine variation de luminosité : la production d'énergie de notre Soleil, par exemple, varie d'environ 0. 1 % sur un cycle solaire de 11 ans.
|
Upstate
|
Le terme « nord de l'État » peut désigner les parties septentrionales de plusieurs États américains. Il peut également faire référence à des parties d'États qui ont une altitude plus élevée, loin du niveau de la mer. Ces régions ont tendance à être rurales ; une exception est le Delaware. Sur la côte est, « upstate » fait généralement référence à des endroits éloignés de l'océan Atlantique. Maine, à l'exception de « Down East » Upstate California, une campagne de marketing de 2001 pour promouvoir la moitié nord de la Californie du Nord Upstate New York, une zone de New York au nord de la zone métropolitaine de New York SUNY Upstate Medical University, souvent appelée « Upstate » Upstate University Hospital, Syracuse, New York Upstate South Carolina, le « coin » nord-ouest de la Caroline du Sud Upstate Pennsylvania, une région touristique qui comprend une grande partie du nord-est de la Pennsylvanie Un terme utilisé pour désigner le fait d'aller au pénitencier de New York ou de la Californie, car toutes les prisons d'État de New York sont dans le nord de l'État, et la majorité de la Californie le sont également.
|
Ultraviolet
|
L'ultraviolet (UV) est un rayonnement électromagnétique d'une longueur d'onde de 10 nm (30 PHz) à 400 nm (750 THz), plus courte que celle de la lumière visible mais plus longue que les rayons X. Le rayonnement UV représente environ 10 % de la production lumineuse totale du Soleil et est donc présent dans la lumière du soleil. Il est également produit par des arcs électriques et des lumières spécialisées, telles que des lampes à vapeur de mercure, des lampes de bronzage et des lumières noires. Bien qu'il ne soit pas considéré comme un rayonnement ionisant parce que ses photons n'ont pas l'énergie nécessaire pour ioniser les atomes, le rayonnement ultraviolet de longue longueur d'onde peut provoquer des réactions chimiques et provoquer la lueur ou la fluorescence de nombreuses substances. Par conséquent, les effets biologiques des UV sont plus importants que les simples effets de chauffage, et de nombreuses applications pratiques du rayonnement UV découlent de ses interactions avec les molécules organiques. Le bronzage, les taches de rousseur et les coups de soleil sont des effets familiers de la surexposition, ainsi qu'un risque plus élevé de cancer de la peau. Les êtres vivants sur la terre ferme seraient gravement endommagés par le rayonnement ultraviolet du Soleil si la majeure partie de celui-ci n'était pas filtrée par l'atmosphère terrestre. Plus énergétique, de longueur d'onde plus courte, « extrême » UV en dessous de 121 nm ionise l'air si fortement qu'il est absorbé avant d'atteindre le sol. Les ultraviolets sont également responsables de la formation de vitamine D chez la plupart des vertébrés terrestres, y compris les humains. Le spectre UV a donc des effets à la fois bénéfiques et néfastes pour la santé humaine. Les rayons ultraviolets sont invisibles pour la plupart des humains : le cristallin d'un œil humain filtre généralement les fréquences UVB ou supérieures, et les humains n'ont pas d'adaptation des récepteurs de couleur pour les rayons ultraviolets. Dans certaines conditions, les enfants et les jeunes adultes peuvent voir les ultraviolets jusqu'à des longueurs d'onde d'environ 310 nm, et les personnes atteintes d'aphakie (lentille manquante) ou de lentille de remplacement peuvent également voir certaines longueurs d'onde UV. Le rayonnement proche de l'UV est visible par certains insectes, mammifères et oiseaux. Les petits oiseaux ont un quatrième récepteur de couleur pour les rayons ultraviolets ; cela donne aux oiseaux une « vraie » vision UV. Les rennes utilisent le rayonnement proche UV pour voir les ours polaires, qui sont peu visibles à la lumière régulière parce qu'ils se fondent dans la neige. Les UV permettent également aux mammifères de voir les traces d'urine, ce qui est utile pour les proies pour trouver de la nourriture dans la nature. Les mâles et les femelles de certaines espèces de papillons semblent identiques à l'œil humain mais très différents des yeux sensibles aux UV - les mâles arborent des motifs lumineux afin d'attirer les femelles.
|
United_States
|
Les États-Unis d'Amérique (États-Unis), communément appelés États-Unis (États-Unis) ou Amérique, sont une république fédérale constitutionnelle composée de 50 États, d'un district fédéral, de cinq grands territoires autonomes et de diverses possessions. Quarante-huit des cinquante États et le district fédéral sont contigus et situés en Amérique du Nord entre le Canada et le Mexique. L'État de l'Alaska se trouve dans le coin nord-ouest de l'Amérique du Nord, bordé par le Canada à l'est et par le détroit de Béring de la Russie à l'ouest. L'État d'Hawaï est un archipel situé au milieu de l'océan Pacifique. Les territoires américains sont dispersés autour de l'océan Pacifique et de la mer des Caraïbes. Neuf fuseaux horaires sont couverts. La géographie, le climat et la faune du pays sont extrêmement diversifiés. À 3. Avec plus de 324 millions d'habitants, les États-Unis sont le troisième ou le quatrième plus grand pays du monde en termes de superficie totale, le troisième plus grand pays en termes de superficie et le troisième plus peuplé. C'est l'un des pays les plus diversifiés et multiculturels du monde sur le plan ethnique, et c'est le pays qui compte la plus grande population d'immigrants au monde. La capitale est Washington, D. C., et la plus grande ville est New York ; neuf autres grandes régions métropolitaines -- chacune en comptant au moins 4. 5 millions d'habitants et les plus grands ayant plus de 13 millions d'habitants - sont Los Angeles, Chicago, Dallas, Houston, Philadelphie, Miami, Atlanta, Boston et San Francisco. Les Paléo-Indiens ont migré d'Asie vers le continent nord-américain il y a au moins 15 000 ans. La colonisation européenne a commencé au 16ème siècle. Les États-Unis sont issus de 13 colonies britanniques le long de la côte Est. De nombreux différends entre la Grande-Bretagne et les colonies à la suite de la guerre de Sept Ans ont conduit à la Révolution américaine, qui a commencé en 1775. Le 4 juillet 1776, au cours de la guerre d'indépendance américaine, les colonies adoptent à l'unanimité la Déclaration d'indépendance. La guerre s'est terminée en 1783 avec la reconnaissance de l'indépendance des États-Unis par la Grande-Bretagne, représentant la première guerre d'indépendance réussie contre une puissance européenne. La Constitution actuelle a été adoptée en 1788, après que les Articles de la Confédération, adoptés en 1781, aient été jugés comme ayant conféré des pouvoirs fédéraux insuffisants. Les dix premiers amendements, collectivement appelés la Déclaration des droits, ont été ratifiés en 1791 et conçus pour garantir de nombreuses libertés civiles fondamentales. Les États-Unis se sont lancés dans une expansion vigoureuse à travers l'Amérique du Nord tout au long du XIXe siècle, déplaçant les tribus amérindiennes, acquérant de nouveaux territoires et admettant progressivement de nouveaux États jusqu'à ce qu'ils couvrent le continent en 1848. Au cours de la seconde moitié du 19ème siècle, la guerre civile américaine a conduit à la fin de l'esclavage légal dans le pays. À la fin de ce siècle, les États-Unis s'étendaient dans l'océan Pacifique et leur économie, tirée en grande partie par la révolution industrielle, commença à monter en flèche. La guerre hispano-américaine a confirmé le statut du pays en tant que puissance militaire mondiale. Les États-Unis sont devenus une superpuissance mondiale, le premier pays à développer des armes nucléaires, le seul pays à les utiliser en temps de guerre et un membre permanent du Conseil de sécurité des Nations Unies. La fin de la guerre froide et la dissolution de l'Union soviétique en 1991 ont laissé les États-Unis comme la seule superpuissance mondiale. Les États-Unis sont un membre fondateur des Nations Unies, de la Banque mondiale, du Fonds monétaire international, de l'Organisation des États américains (OEA) et d'autres organisations internationales. Les États-Unis sont un pays très développé, avec la plus grande économie du monde en termes de PIB nominal et la deuxième plus grande économie en termes de PPA. Bien que sa population ne soit que de 4. 3 % du total mondial, les Américains détiennent près de 40 % de la richesse totale dans le monde. Les États-Unis se classent parmi les plus élevés dans plusieurs mesures de la performance socio-économique, notamment le salaire moyen, le développement humain, le PIB par habitant et la productivité par personne. Alors que l'économie américaine est considérée comme postindustrielle, caractérisée par la domination des services et de l'économie du savoir, le secteur manufacturier reste le deuxième plus important au monde. Représentant environ un quart du PIB mondial et un tiers des dépenses militaires mondiales, les États-Unis sont la première puissance économique et militaire du monde. Les États-Unis sont une force politique et culturelle de premier plan à l'échelle internationale, ainsi qu'un chef de file en matière de recherche scientifique et d'innovations technologiques.
|
Unemployment_in_the_United_States
|
Unemployment in the United States traite des causes et des mesures du chômage aux États-Unis et des stratégies pour le réduire. La création d'emplois et le chômage sont influencés par des facteurs tels que les conditions économiques, la concurrence mondiale, l'éducation, l'automatisation et la démographie. Ces facteurs peuvent affecter le nombre de travailleurs, la durée du chômage et les niveaux de salaire.
|
United_Nations_Framework_Convention_on_Climate_Change
|
La Convention-cadre des Nations Unies sur les changements climatiques (CCNUCC) est un traité international sur l'environnement adopté le 9 mai 1992 et ouvert à la signature lors du Sommet de la Terre à Rio de Janeiro du 3 au 14 juin 1992. Il est ensuite entré en vigueur le 21 mars 1994, après qu'un nombre suffisant de pays l'aient ratifié. L'objectif de la CCNUCC est de « stabiliser les concentrations de gaz à effet de serre dans l'atmosphère à un niveau qui empêcherait toute interférence anthropique dangereuse avec le système climatique ». Le cadre ne fixe aucune limite contraignante aux émissions de gaz à effet de serre pour chaque pays et ne contient aucun mécanisme d'application. Au lieu de cela, le cadre décrit comment des traités internationaux spécifiques (appelés « protocoles » ou « accords ») peuvent être négociés pour spécifier d'autres actions vers l'objectif de la CCNUCC. Initialement, un comité de négociation intergouvernemental (CNI) a produit le texte de la Convention-cadre lors de sa réunion à New York du 30 avril au 9 mai 1992. La CCNUCC a été adoptée le 9 mai 1992 et ouverte à la signature le 4 juin 1992. En décembre 2015, la CCNUCC comptait 197 parties. La convention jouit d'une large légitimité, en grande partie en raison de sa participation presque universelle. Depuis 1995, les parties à la convention se réunissent chaque année dans le cadre de conférences des Parties (COP) afin d'évaluer les progrès accomplis dans la lutte contre le changement climatique. En 1997, le Protocole de Kyoto a été conclu et a établi des obligations juridiquement contraignantes pour les pays développés de réduire leurs émissions de gaz à effet de serre au cours de la période 2008-2012. Les accords de Cancún de 2010 stipulent que le réchauffement climatique futur devrait être limité à moins de 2 %. 0 °C (3,6 °F) par rapport au niveau préindustriel. Le Protocole a été modifié en 2012 pour englober la période 2013-2020 dans l'Amendement de Doha, qui n'était pas entré en vigueur en décembre 2015. En 2015, l'Accord de Paris a été adopté, régissant les réductions d'émissions à partir de 2020 grâce à des engagements de contributions déterminées au niveau national ambitieuses par les pays. L'Accord de Paris est entré en vigueur le 4 novembre 2016. L'une des premières tâches assignées par la CCNUCC a été d'établir des inventaires nationaux des émissions et des absorptions de gaz à effet de serre (GES), qui ont été utilisés pour créer les niveaux de référence de 1990 pour l'adhésion des pays de l'annexe I au Protocole de Kyoto et pour l'engagement de ces pays à réduire les émissions de GES. Les pays de l'annexe I doivent présenter chaque année des inventaires actualisés. La CCNUCC est également le nom du Secrétariat des Nations Unies chargé de soutenir le fonctionnement de la Convention, avec des bureaux à Haus Carstanjen et au Campus des Nations Unies (connu sous le nom de Langer Eugen) à Bonn, en Allemagne. De 2010 à 2016, la responsable du secrétariat était Christiana Figueres. En juillet 2016, la Mexicaine Patricia Espinosa a succédé à Figueres. Le Secrétariat, renforcé par les efforts parallèles du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC), vise à obtenir un consensus par le biais de réunions et de discussions sur diverses stratégies.
|
United_Launch_Alliance
|
United Launch Alliance (ULA) est une coentreprise de Lockheed Martin Space Systems et de Boeing Defense, Space & Security. ULA a été créée en décembre 2006 en combinant les équipes de ces sociétés qui fournissent des services de lancement d'engins spatiaux au gouvernement des États-Unis. Les clients de lancement du gouvernement américain comprennent à la fois le ministère de la Défense et la NASA, ainsi que d'autres organisations. Avec ULA, Lockheed et Boeing ont détenu le monopole des lancements militaires pendant plus d'une décennie, jusqu'à ce que l'US Air Force attribue un contrat de satellite GPS à SpaceX en 2016. ULA fournit des services de lancement à l'aide de trois systèmes de lancement non réutilisables - Delta II, Delta IV et Atlas V. Les familles de systèmes de lancement Atlas et Delta sont utilisées depuis plus de 50 ans pour transporter une variété de charges utiles, notamment des satellites météorologiques, de télécommunications et de sécurité nationale, ainsi que des missions d'exploration de l'espace lointain et interplanétaires à l'appui de la recherche scientifique. ULA fournit également des services de lancement de satellites non gouvernementaux : Lockheed Martin conserve les droits de commercialisation d'Atlas. À partir d'octobre 2014, ULA a annoncé son intention d'entreprendre une restructuration substantielle de l'entreprise, de ses produits et de ses processus dans les années à venir afin de réduire les coûts de lancement. ULA prévoit de construire une nouvelle fusée qui succédera à l'Atlas V, en utilisant un nouveau moteur-fusée sur le premier étage. En avril 2015, ils ont dévoilé le nouveau véhicule sous le nom de Vulcan, avec le premier vol d'un nouveau premier étage au plus tôt en 2019.
|
Typhoon_Imbudo
|
Le typhon Imbudo, connu aux Philippines sous le nom de typhon Harurot, était un puissant typhon qui a frappé les Philippines et le sud de la Chine en juillet 2003. Septième tempête nommée et quatrième typhon de la saison, Imbudo s'est formé le 15 juillet à l'est des Philippines. La tempête s'est déplacée généralement vers l'ouest-nord-nord pendant une grande partie de sa durée en raison d'une crête au nord. Des conditions favorables ont permis à Imbudo de s'intensifier, d'abord progressivement avant de s'approfondir rapidement le 19 juillet. Après avoir atteint le statut de typhon, Imbudo s'est encore renforcé pour atteindre des vents soutenus de 165 km/h (105 mph) le 20 juillet. Le typhon a touché terre dans le nord de Luzon près de son intensité maximale le 22 juillet, mais s'est rapidement affaibli au-dessus des terres. Une fois dans la mer de Chine méridionale, Imbudo s'est légèrement intensifié avant de toucher terre dans le sud de la Chine, près de Yangjiang, le 24 juillet, et de se dissiper le lendemain. Aux Philippines, Imbudo a été le typhon le plus puissant depuis cinq ans, provoquant des inondations généralisées et des pannes de courant dans la vallée de Cagayan pendant des semaines. Les dégâts ont été les plus importants dans la province d'Isabela, près de l'endroit où la tempête a frappé. La majeure partie de la récolte de bananes a été détruite, et d'autres cultures ont subi des dommages similaires mais moindres. Imbudo a perturbé les transports dans une grande partie de Luçon. À l'échelle nationale, la tempête a endommagé ou détruit 62 314 maisons, causant P4. 7 milliards (PHP, 86 millions USD) de dégâts, principalement dans la vallée de Cagayan. Il y a également eu 64 décès dans le pays. À Hong Kong, des vents violents ont tué un homme après l'avoir fait tomber d'une plate-forme. En Chine, les dégâts ont été les plus importants dans le Guangdong, où la tempête a frappé. Des milliers d'arbres sont tombés et 595 000 maisons ont été détruites. Des centaines de vols annulés ont bloqué des voyageurs dans toute la région. Dans le Guangxi, les fortes précipitations ont fait grimper le niveau de l'eau dans 45 réservoirs à des niveaux d'alerte. Dans le Guangxi et le Guangdong, 20 personnes ont été tuées et les dégâts ont atteint environ 4 yens. 45 milliards (CNY, 297 millions USD) .
|
United_States_presidential_election_in_California,_1964
|
Lors de l'élection présidentielle américaine de 1964, l'État de Californie a voté pour le président démocrate sortant, Lyndon B. Johnson, dans un raz-de-marée face au candidat républicain, le sénateur Barry Goldwater de l'Arizona. Alors que Johnson a gagné au niveau national dans un glissement de terrain massif, prenant 61. Avec 05 % des voix à l'échelle nationale et dominant de nombreux États du Nord-Est et du Midwest par des marges record de glissement de terrain, la Californie pesait environ 4 % de plus républicain que la moyenne nationale lors des élections de 1964. Johnson a dominé dans la Californie du Nord, plus libérale, avec 60 % dans de nombreux comtés et même 70 % dans le comté de Plumas et la ville de San Francisco. Cependant, le conservateur de l'Ouest Goldwater, de l'Arizona voisin, a eu un certain attrait dans le sud de la Californie, plus conservateur, où Johnson n'a pas réussi à battre sa moyenne de votes à l'échelle nationale dans un seul comté. Goldwater a en effet remporté sept districts du Congrès dans la zone côtière sud et a remporté deux comtés du sud de la Californie très peuplés, le comté d'Orange et le comté de San Diego, maintenant ainsi Johnson en dessous de la barre des 60 % à l'échelle de l'État. Bien que la Californie soit devenue un État fortement démocrate lors des dernières élections, ce fut la seule élection présidentielle entre 1952 et 1988 où l'État a été remporté par un démocrate. Johnson est également le dernier démocrate à remporter les comtés de Calaveras, Colusa, Glenn, Inyo, Kern, Modoc et Tulare, et le dernier à remporter la majorité des voix dans les comtés de Butte, El Dorado, Kings, Mariposa, Siskiyou et Tuolumne, bien qu'un ou plusieurs des comtés de Hubert Humphrey, Jimmy Carter et Bill Clinton aient remporté une pluralité dans ces comtés. Ce fut la dernière élection au cours de laquelle la Californie n'a pas enregistré le plus grand nombre de votes exprimés par l'État.
|
Unemployment_benefits
|
Les allocations de chômage (selon la juridiction, également appelées assurance chômage ou indemnités de chômage) sont des prestations d'aide sociale versées par l'État ou d'autres organismes autorisés aux chômeurs. Les prestations peuvent être fondées sur un système d'assurance paragouvernemental obligatoire. Selon la juridiction et le statut de la personne, ces sommes peuvent être faibles, ne couvrant que les besoins essentiels, ou peuvent compenser le temps perdu proportionnellement au salaire précédemment gagné. Les allocations de chômage ne sont généralement accordées qu'aux personnes inscrites comme chômeurs, et souvent à des conditions garantissant qu'elles cherchent du travail et qu'elles n'ont pas d'emploi actuellement. Dans certains pays, une proportion importante des allocations de chômage est distribuée par les syndicats, un système connu sous le nom de système de Gand.
|
United_States_rainfall_climatology
|
Les caractéristiques de la climatologie des précipitations aux États-Unis diffèrent considérablement entre les États-Unis et ceux sous la souveraineté des États-Unis. Les cyclones extratropicaux de la fin de l'été et de l'automne apportent la majorité des précipitations qui tombent chaque année sur l'ouest, le sud et le sud-est de l'Alaska. Au cours de l'hiver et du printemps, les systèmes de tempêtes du Pacifique apportent à Hawaï et à l'ouest des États-Unis la plupart de leurs précipitations. Le nord-est se déplaçant le long de la côte Est apporte des précipitations de saison froide dans les États des Carolines, du centre de l'Atlantique et de la Nouvelle-Angleterre. La neige à effet de lac augmente le potentiel de précipitations sous le vent des Grands Lacs, ainsi que du Grand Lac Salé et des Finger Lakes pendant la saison froide. Le rapport neige/liquide dans les États-Unis contigus est en moyenne de 13 : 1, ce qui signifie que 13 pouces de neige fondent pour 1 pouce d'eau. Au cours de l'été, la mousson nord-américaine combinée à l'humidité du golfe de Californie et du golfe du Mexique se déplaçant autour de la crête subtropicale de l'océan Atlantique promet des orages de masse d'air en après-midi et en soirée dans le sud du pays ainsi que dans les Grandes Plaines. Vers l'équateur de la dorsale subtropicale, les cyclones tropicaux augmentent les précipitations dans les parties sud et est du pays, ainsi qu'à Porto Rico, aux îles Vierges américaines, aux îles Mariannes du Nord, à Guam et aux Samoa américaines. Au-dessus du sommet de la crête, le courant-jet apporte un maximum de précipitations estivales aux Grands Lacs. De grandes zones orageuses connues sous le nom de complexes convectifs de méso-échelle traversent les plaines, le Midwest et les Grands Lacs pendant la saison chaude, contribuant jusqu'à 10 % des précipitations annuelles dans la région. El Niño - Oscillation australe affecte la distribution des précipitations, en modifiant les régimes de précipitations dans l'Ouest, le Midwest, le Sud-Est et dans les tropiques. Il existe également des preuves que le réchauffement climatique entraîne une augmentation des précipitations dans les parties orientales de l'Amérique du Nord, tandis que les sécheresses sont de plus en plus fréquentes dans les parties occidentales.
|
Uncertainty_analysis
|
Pour un traitement beaucoup plus détaillé, voir Analyse expérimentale de l'incertitude L'analyse de l'incertitude étudie l'incertitude des variables utilisées dans les problèmes de prise de décision dans lesquels les observations et les modèles représentent la base de connaissances. En d'autres termes, l'analyse des incertitudes vise à apporter une contribution technique à la prise de décision en quantifiant les incertitudes des variables pertinentes. Dans les expériences physiques, l'analyse de l'incertitude, ou évaluation de l'incertitude expérimentale, traite de l'évaluation de l'incertitude dans une mesure. Une expérience conçue pour déterminer un effet, démontrer une loi ou estimer la valeur numérique d'une variable physique sera affectée par des erreurs dues à l'instrumentation, à la méthodologie, à la présence d'effets de confusion, etc. Des estimations expérimentales de l'incertitude sont nécessaires pour évaluer la confiance dans les résultats. Un domaine connexe est la conception d'expériences. De même, dans les expériences numériques et la modélisation, l'analyse de l'incertitude s'appuie sur un certain nombre de techniques pour déterminer la fiabilité des prédictions du modèle, en tenant compte de diverses sources d'incertitude dans l'entrée et la conception du modèle. Un domaine connexe est l'analyse de sensibilité. Un paramètre calibré ne représente pas nécessairement la réalité, car la réalité est beaucoup plus complexe. Toute prédiction a ses propres complexités de réalité qui ne peuvent pas être représentées de manière unique dans le modèle calibré ; Par conséquent, il y a une erreur potentielle. Cette erreur doit être prise en compte lors de la prise de décisions de gestion sur la base des résultats du modèle.
|
Unparticle_physics
|
En physique théorique, la physique des nonparticules est une théorie spéculative qui conjecture une forme de matière qui ne peut pas être expliquée en termes de particules à l'aide du modèle standard de la physique des particules, car ses composants sont invariants à l'échelle. Howard Georgi a proposé cette théorie dans deux articles de 2007, « Unparticle Physics » et « Another Odd Thing About Unparticle Physics ». Ses articles ont été suivis par d'autres travaux menés par d'autres chercheurs sur les propriétés et la phénoménologie de la physique des nonparticules et son impact potentiel sur la physique des particules, l'astrophysique, la cosmologie, la violation de CP, la violation de la saveur des leptons, la désintégration des muons, les oscillations des neutrinos et la supersymétrie.
|
UH88
|
Le télescope de 88 pouces (2,2 mètres) de l'Université d'Hawaï appelé UH88, UH2. 2, ou simplement 88 par les membres de la communauté astronomique locale est situé aux observatoires de Mauna Kea et exploité par l'Institut d'astronomie de l'Université. Il a été construit en 1968 et est entré en service en 1970, date à laquelle il était connu sous le nom de « L'Observatoire du Mauna Kea ». Il est devenu l'un des premiers télescopes professionnels à être contrôlé par un ordinateur. Le télescope a été construit avec un financement de la NASA, pour soutenir les missions du système solaire et est contrôlé par l'Université d'Hawaï. Le succès du télescope a permis de démontrer la valeur du Mauna Kea pour les observations astronomiques. Le 4 décembre 1984, il est devenu le premier télescope à effectuer des mesures de phase de fermeture optique sur une source astronomique à l'aide d'un masque d'ouverture. UH88 est un télescope à tube réflecteur Cassegrain avec un rapport focal de f/10, soutenu par une grande monture équatoriale à fourche ouverte. C'était le dernier télescope du Mauna Kea à utiliser un tube plutôt qu'une poutre ouverte, et c'est le plus grand du complexe à utiliser une monture à fourche ouverte, les télescopes voisins de la classe de 3 mètres utilisant des conceptions à fourche anglaise. En tant que seul télescope de recherche contrôlé uniquement par l'Université, UH88 a longtemps été le principal télescope utilisé par ses professeurs, ses chercheurs postdoctoraux et ses étudiants diplômés, et par conséquent, le site de nombreuses découvertes. David C. Jewitt et Jane X. Luu ont découvert le premier objet de la ceinture de Kuiper, 1992 QB1 en utilisant UH88, et une équipe dirigée par Jewitt et Scott S. Sheppard a découvert 45 des lunes connues de Jupiter, ainsi que des lunes de Saturne, Uranus et Neptune. L'Institut d'astronomie conclut également des ententes avec d'autres organisations pour une partie du temps d'observation disponible. Actuellement, l'Observatoire astronomique national du Japon utilise UH88 pour certains projets de recherche pour lesquels son observatoire Subaru, beaucoup plus grand et plus cher, également sur le Mauna Kea, serait exagéré. Le projet Nearby Supernova Factory, basé au Lawrence Berkeley National Laboratory, a également son instrument Supernova Integrated Field Spectrograph (SNIFS) monté sur UH88. En juin 2011, le télescope et sa station météorologique ont été frappés par la foudre, endommageant de nombreux systèmes et le désactivant, mais le télescope a été réparé en août 2011. Certains des systèmes de l'observatoire avaient 41 ans au moment des dommages et ont dû faire l'objet d'une rétro-ingénierie pour être réparés. La station météorologique est actuellement en cours de développement.
|
Typhoon_Pat_(1985)
|
Le typhon Pat, connu aux Philippines sous le nom de typhon Luming, est un puissant typhon qui a frappé le Japon au cours de l'été 1985. Pat est également l'une des trois tempêtes du Pacifique occidental qui ont interagi les unes avec les autres. Originaire d'un creux de mousson vers la fin du mois d'août, Pat s'est formé pour la première fois le 24 août à plusieurs centaines de kilomètres à l'est des Philippines. Elle s'est progressivement intensifiée et, deux jours plus tard, Pat est devenu une tempête tropicale. Le cyclone s'est d'abord déplacé vers l'est-nord-est tout en continuant à s'approfondir. Cependant, l'intensité de Pat s'est stabilisée le 27 août. Après avoir viré vers le nord-ouest, Pat a atteint l'intensité d'un typhon le 28 août. Pat a accéléré vers le nord et a atteint son intensité maximale de 80 mph le 30 août. Le lendemain, la tempête a traversé les îles du sud du Japon et est entrée dans la mer du Japon. S'affaiblissant progressivement, Pat s'est transformé en cyclone extratropical plus tard le 31 août. Tôt le lendemain, la tempête s'est déplacée vers le nord-est du Japon. Le système s'est dissipé le 2 septembre après être rentré dans l'océan Pacifique. Au total, 23 personnes ont péri à cause du typhon Pat et 12 autres ont été portées disparues. De plus, 79 personnes ont été blessées. En outre, 38 maisons au Japon ont été démolies, 110 ont été endommagées et plus de 2 000 ont été inondées. Plus de 160 000 foyers ont été privés d'électricité. Au total, 165 vols ont été annulés.
|
U.S._Route_97_in_Oregon
|
Dans l'État américain de l'Oregon, l'U.S. Route 97 est une grande autoroute nord-sud des États-Unis qui traverse l'État de l'Oregon (entre autres États). Dans l'Oregon, il s'étend de la frontière entre l'Oregon et la Californie, au sud de Klamath Falls, à la frontière entre l'Oregon et l'État de Washington sur le fleuve Columbia, entre Biggs Junction dans l'Oregon et Maryhill dans l'État de Washington. À l'exception du tronçon le plus au nord (connu sous le nom de Sherman Highway), l'US 97 (ainsi que l'U.S. Route 197) est connue sous le nom de Dalles-California Highway. En mai 2009, le Sénat de l'Oregon a adopté un projet de loi visant à renommer l'U.S. Route 97 en « World War II Veterans Historic Highway ». À l'exception de l'Interstate 5, l'US 97 est le plus important corridor routier nord-sud de l'État. Il dessert deux grands centres de population (Klamath Falls et Bend), et constitue le principal corridor à l'est des montagnes Cascade. Bien qu'une grande partie de l'autoroute reste en configuration à deux voies non divisées, d'importants tronçons ont été améliorés au statut d'autoroute ou d'autoroute.
|
Typhoon_Higos_(2002)
|
Le typhon Higos est considéré comme le troisième typhon le plus puissant à avoir touché Tokyo depuis la Seconde Guerre mondiale. 21e tempête nommée de la saison 2002 des typhons du Pacifique, Higos s'est développée le 25 septembre à l'est des îles Mariannes du Nord. Il s'est déplacé vers l'ouest-nord-ouest pendant ses premiers jours, s'intensifiant progressivement en un puissant typhon le 29 septembre. Higos s'est ensuite affaibli et s'est tourné vers le nord-nord-est en direction du Japon, touchant terre dans la préfecture de Kanagawa le 1er octobre. Il s'affaiblit en traversant Honshu, et peu de temps après avoir frappé Hokkaidō, Higos devient extratropical le 2 octobre. Les restes passèrent au-dessus de Sakhaline et se dissipèrent le 4 octobre. Avant de frapper le Japon, Higos a produit des vents forts dans les îles Mariannes du Nord tout en passant vers le nord. Ces vents ont endommagé l'approvisionnement alimentaire de deux îles. Plus tard, Higos s'est déplacé à travers le Japon avec des rafales de vent allant jusqu'à 161 km/h (100 mph), y compris des rafales record à plusieurs endroits. Au total, 608 130 bâtiments du pays ont été privés d'électricité et deux personnes ont été électrocutées à la suite de la tempête. Le typhon a également déversé de fortes pluies qui ont culminé à 346 mm (13,6 po). Les pluies ont inondé les maisons à travers le pays et provoqué des coulées de boue. De hautes vagues ont emporté 25 bateaux sur le rivage et tué une personne le long de la côte. Les dégâts dans le pays se sont élevés à 2 $. 14 milliards (261 milliards de yens en 2002), et il y a eu cinq morts dans le pays. Plus tard, les restes de Higos ont affecté l'Extrême-Orient russe, tuant sept personnes impliquées dans deux naufrages au large du kraï de Primorsky.
|
United_States_Environmental_Protection_Agency
|
L'Agence de protection de l'environnement des États-Unis (EPA ou parfois USEPA) est une agence du gouvernement fédéral des États-Unis qui a été créée dans le but de protéger la santé humaine et l'environnement en rédigeant et en appliquant des règlements basés sur des lois adoptées par le Congrès. Le président Richard Nixon a proposé la création de l'EPA et celle-ci a commencé à fonctionner le 2 décembre 1970, après que Nixon ait signé un décret. L'ordonnance établissant l'EPA a été ratifiée par des audiences de comités à la Chambre et au Sénat. L'agence est dirigée par son administrateur, qui est nommé par le président et approuvé par le Congrès. L'administrateur actuel est Scott Pruitt. L'EPA n'est pas un département du Cabinet, mais l'administrateur a normalement le rang de cabinet. L'EPA a son siège à Washington, D.C., des bureaux régionaux pour chacune des dix régions de l'agence et 27 laboratoires. L'agence mène des activités d'évaluation environnementale, de recherche et d'éducation. Il a la responsabilité de maintenir et d'appliquer des normes nationales en vertu de diverses lois environnementales, en consultation avec les gouvernements étatiques, tribaux et locaux. Il délègue certaines responsabilités en matière d'autorisation, de surveillance et d'application de la loi aux États américains et aux tribus reconnues par le gouvernement fédéral. Les pouvoirs d'application de l'EPA comprennent des amendes, des sanctions et d'autres mesures. L'agence travaille également avec les industries et tous les ordres de gouvernement dans le cadre d'une grande variété de programmes volontaires de prévention de la pollution et d'efforts d'économie d'énergie. En 2016, l'agence comptait 15 376 employés à temps plein. Plus de la moitié des employés de l'EPA sont des ingénieurs, des scientifiques et des spécialistes de la protection de l'environnement ; Les autres employés comprennent des spécialistes des services juridiques, des affaires publiques, des finances et des technologies de l'information. En 2017, l'administration Trump a proposé une réduction de 31 % du budget de l'EPA à 5 dollars. 7 milliards à partir de 8 dollars. 1 milliard et de supprimer un quart des emplois intérimaires.
|
Validity_(statistics)
|
La validité est la mesure dans laquelle un concept, une conclusion ou une mesure est bien fondé et correspond exactement au monde réel. Le mot « valide » est dérivé du latin validus, qui signifie fort. La validité d'un outil de mesure (par exemple, un test en éducation) est considérée comme la mesure dans laquelle l'outil mesure ce qu'il prétend mesurer ; Dans ce cas, la validité est équivalente à l'exactitude. En psychométrie, la validité a une application particulière connue sous le nom de validité des tests : « le degré auquel les preuves et la théorie soutiennent les interprétations des résultats des tests » (« comme impliqué par les utilisations proposées des tests »). Il est généralement admis que le concept de validité scientifique traite de la nature de la réalité et, en tant que tel, constitue une question épistémologique et philosophique ainsi qu'une question de mesure. L'utilisation du terme en logique est plus étroite, se rapportant à la vérité des inférences faites à partir de prémisses. La validité est importante parce qu'elle peut aider à déterminer les types de tests à utiliser et à s'assurer que les chercheurs utilisent des méthodes qui sont non seulement éthiques et rentables, mais aussi une méthode qui mesure vraiment l'idée ou la construction en question.
|
United_Nations_Climate_Change_conference
|
Les conférences des Nations Unies sur les changements climatiques sont des conférences annuelles organisées dans le cadre de la Convention-cadre des Nations Unies sur les changements climatiques (CCNUCC). Ils servent de réunion formelle des parties à la CCNUCC (Conférence des parties, COP) pour évaluer les progrès dans la lutte contre le changement climatique et, à partir du milieu des années 1990, pour négocier le protocole de Kyoto afin d'établir des obligations juridiquement contraignantes pour les pays développés de réduire leurs émissions de gaz à effet de serre. Depuis 2005, les Conférences ont également servi de « Conférence des Parties siégeant comme Réunion des Parties au Protocole de Kyoto » (CMP) ; les parties à la Convention qui ne sont pas parties au Protocole peuvent également participer aux réunions relatives au Protocole en qualité d'observateurs. Depuis 2011, les réunions ont également été utilisées pour négocier l'Accord de Paris dans le cadre des activités de la plateforme de Durban jusqu'à sa conclusion en 2015, qui a ouvert la voie à l'action climatique. La première conférence des Nations Unies sur le changement climatique s'est tenue en 1995 à Berlin.
|
United_States_Census_Bureau
|
Le Bureau du recensement des États-Unis (USCB ; officiellement le Bureau du recensement, tel que défini dans le titre) est une agence principale du système statistique fédéral des États-Unis, responsable de la production de données sur le peuple et l'économie américains. Le Census Bureau fait partie du département du Commerce des États-Unis et son directeur est nommé par le président des États-Unis. La mission principale du Bureau du recensement est d'effectuer le recensement des États-Unis tous les dix ans, qui attribue les sièges de la Chambre des représentants des États-Unis aux États en fonction de leur population. Les différents recensements et enquêtes du Bureau permettent d'allouer plus de 400 milliards de dollars de fonds fédéraux chaque année et aident les États, les communautés locales et les entreprises à prendre des décisions éclairées. Les renseignements fournis par le recensement éclairent les décisions sur l'endroit où construire et entretenir les écoles, les hôpitaux, les infrastructures de transport et les services de police et d'incendie. En plus du recensement décennal, le Bureau du recensement mène continuellement des dizaines d'autres recensements et enquêtes, notamment l'American Community Survey, le U.S. Economic Census et le Current Population Survey. De plus, les indicateurs économiques et du commerce extérieur publiés par le gouvernement fédéral contiennent généralement des données produites par le Bureau du recensement.
|
United_Farm_Workers
|
L'United Farm Workers of America, ou plus communément simplement United Farm Workers (UFW), est un syndicat d'ouvriers agricoles aux États-Unis. Il est issu de la fusion de deux organisations de défense des droits des travailleurs, l'Agricultural Workers Organizing Committee (AWOC) dirigé par l'organisateur Larry Itliong, et la National Farm Workers Association (NFWA) dirigée par César Chávez et Dolores Huerta. Ils se sont alliés et se sont transformés d'organisations de défense des droits des travailleurs en un syndicat à la suite d'une série de grèves en 1965, lorsque les travailleurs agricoles de l'AWOC, principalement philippins, à Delano, en Californie, ont lancé une grève du raisin, et que la NFWA s'est mise en grève en soutien. En raison de la similitude des objectifs et des méthodes, la NFWA et l'AWOC ont formé le Comité d'organisation des travailleurs agricoles unis le 22 août 1966. Cette organisation a été acceptée dans l'AFL-CIO en 1972 et a changé son nom en United Farmworkers Union.
|
Walrus
|
Le morse (Odobenus rosmarus) est un grand mammifère marin à nageoires dont la distribution est discontinue autour du pôle Nord dans l'océan Arctique et les mers subarctiques de l'hémisphère Nord. Le morse est la seule espèce vivante de la famille des Odobenidae et du genre Odobenus. Cette espèce est subdivisée en trois sous-espèces : le morse de l'Atlantique (O. r. rosmarus) qui vit dans l'océan Atlantique, le morse du Pacifique (O. r. divergens) qui vit dans l'océan Pacifique et O. r. laptevi, qui vit dans la mer de Laptev de l'océan Arctique. Les morses adultes sont facilement reconnaissables à leurs défenses proéminentes, à leurs moustaches et à leur volume. Les mâles adultes du Pacifique peuvent peser plus de 2000 kg et, parmi les pinnipèdes, ne sont dépassés en taille que par les deux espèces d'éléphants de mer. Les morses vivent principalement dans les eaux peu profondes au-dessus des plateaux continentaux, passant une grande partie de leur vie sur la glace de mer à la recherche de mollusques bivalves benthiques à manger. Les morses sont des animaux sociaux à la longévité relative, et ils sont considérés comme une « espèce clé » dans les régions marines de l'Arctique. Le morse a joué un rôle de premier plan dans les cultures de nombreux peuples autochtones de l'Arctique, qui ont chassé le morse pour sa viande, sa graisse, sa peau, ses défenses et ses os. Au cours du 19e siècle et au début du 20e siècle, les morses étaient largement chassés et tués pour leur graisse, leur ivoire de morse et leur viande. La population de morses a rapidement chuté dans toute la région arctique. Leur population a quelque peu rebondi depuis, bien que les populations de morses de l'Atlantique et de Laptev restent fragmentées et à des niveaux faibles par rapport à la période précédant l'intervention humaine.
|
Virtual_power_plant
|
La centrale électrique virtuelle (VPP) est un centre de contrôle central ou distribué basé sur le cloud qui tire parti des technologies de l'information et de la communication (TIC) et des dispositifs de l'Internet des objets (IoT) pour agréger la capacité de ressources énergétiques distribuées (DER) hétérogènes, y compris différents types d'unités de production distribuée (DG) pilotables et non pilotables (par exemple, des cogénérations, des moteurs alternatifs alimentés au gaz naturel, des centrales éoliennes à petite échelle, photovoltaïque (PV), centrales hydroélectriques au fil de l'eau, biomasse, etc.) , les systèmes de stockage d'énergie (ESS) et les charges contrôlables ou flexibles (CL ou FL) et forment une coalition de RED hétérogènes aux fins du négoce d'énergie sur les marchés de gros de l'électricité et/ou de la fourniture de services auxiliaires aux gestionnaires de réseau pour le compte de RED individuelles non éligibles. Dans une autre définition, le VPP est un système qui intègre plusieurs types de sources d'énergie (telles que les micro-cogénérations, les éoliennes, les petites centrales hydroélectriques, le photovoltaïque, les groupes électrogènes de secours et les batteries) afin de fournir une alimentation électrique globale fiable. Les sources sont souvent un cluster de systèmes de production distribuée et sont souvent orchestrées par une autorité centrale. Le nouveau paradigme de fonctionnement du système électrique permet à une multitude de RED, y compris les générateurs distribués, les charges flexibles / contrôlables et les installations de stockage d'énergie, d'être coordonnés sous l'égide de centrales électriques virtuelles (VPP). Un VPP agit en tant qu'intermédiaire entre les RED et le marché de gros et négocie de l'énergie pour le compte des propriétaires de DER qui ne sont pas en mesure de participer seuls au marché de l'électricité. En fait, le VPP agrège la capacité des DG, des ESS et des FL à former une coalition de technologies hétérogènes dans l'espoir d'échanger sur le marché de gros de l'électricité. La VPP se comporte comme une centrale électrique conventionnelle pilotable du point de vue des autres acteurs du marché, bien qu'il s'agisse en effet d'un groupe de nombreuses RED diverses. De plus, sur les marchés concurrentiels de l'électricité, une centrale électrique virtuelle agit comme un arbitragiste en exerçant un arbitrage entre diverses salles de marché de l'énergie (c'est-à-dire les contrats bilatéraux et PPA, les marchés à terme et à terme, et le pool). Jusqu'à présent, à des fins de gestion des risques, cinq stratégies différentes de couverture des risques (IGDT, RO, CVaR, FSD et SSD) ont été appliquées aux problèmes de prise de décision des VPP dans les articles de recherche pour mesurer le niveau de conservatisme des décisions des VPP dans diverses salles de marché de l'énergie (par exemple, le marché de l'électricité à un jour à un jour, le marché des échanges de produits dérivés et les contrats bilatéraux) : IGDT : Théorie de la décision de l'écart d'information RO : Optimisation robuste CVaR : Valeur conditionnelle à risque FSD : Dominance stochastique de premier ordre SSD : Dominance stochastique de second ordre
|
Voice_of_America
|
Voice of America (VOA) est une source d'information multimédia financée par le gouvernement des États-Unis et l'institution officielle de diffusion externe des États-Unis. VOA fournit des programmes pour la radio, la télévision et l'Internet en dehors des États-Unis, en anglais et dans certaines langues étrangères telles que le persan et le français. La charte de la VOA – promulguée en 1976 par le président Gerald Ford – exige que la VOA « serve de source d'information fiable et faisant autorité » et « soit précise, objective et complète ». Le siège social de Voice of America est situé au 330 Independence Avenue SW, Washington, D. C., 20237. La VOA est entièrement financée par le gouvernement américain ; le Congrès lui alloue des fonds chaque année dans le cadre du même budget pour les ambassades et les consulats. En 2016, le réseau aurait disposé d'un budget annuel de 218 dollars, financé par les contribuables. 5 millions, 1000 personnes et 236 personnes. 6 millions de personnes dans le monde. Les émissions de radio et de télévision de VOA sont distribuées par satellite, par câble et sur les fréquences radio FM, AM et à ondes courtes. Ils sont diffusés en continu sur des sites Web de services linguistiques individuels, des sites de médias sociaux et des plateformes mobiles. VOA a des accords d'affiliation et contractuels avec des stations de radio et de télévision et des réseaux câblés dans le monde entier. Certains universitaires et commentateurs considèrent Voice of America comme une forme de propagande, bien que cette étiquette soit contestée par d'autres.
|
Wage_labour
|
Le travail salarié (également appelé travail salarié en anglais américain) est la relation socio-économique entre un travailleur et un employeur, où le travailleur vend sa force de travail dans le cadre d'un contrat de travail formel ou informel. Ces transactions se produisent généralement sur un marché du travail où les salaires sont déterminés par le marché. En échange du salaire versé, le produit du travail devient généralement la propriété indifférenciée de l'employeur, sauf dans des cas particuliers tels que l'acquisition de brevets de propriété intellectuelle aux États-Unis où les droits de brevet sont généralement dévolus à l'employé personnellement responsable de l'invention. Un travailleur salarié est une personne dont le principal moyen de revenu provient de la vente de sa force de travail de cette manière. Dans les économies mixtes modernes telles que celles des pays de l'OCDE, il s'agit actuellement de la forme de régime de travail la plus courante. Bien que la plupart du travail soit organisé selon cette structure, les arrangements de travail salarié des PDG, des employés professionnels et des travailleurs contractuels professionnels sont parfois confondus avec les affectations de classe, de sorte que le « travail salarié » est considéré comme ne s'appliquant qu'au travail non qualifié, semi-qualifié ou manuel.
|
Washington_(state)
|
Washington (-LSB- ˈwɒʃɪŋtən -RSB-) est un État de la région nord-ouest du Pacifique des États-Unis situé au nord de l'Oregon, à l'ouest de l'Idaho et au sud de la province canadienne de la Colombie-Britannique sur la côte de l'océan Pacifique. Nommé d'après George Washington, le premier président des États-Unis, l'État a été formé à partir de la partie occidentale du territoire de Washington, qui avait été cédé par la Grande-Bretagne en 1846 conformément au traité de l'Oregon dans le règlement du différend frontalier de l'Oregon. Il a été admis dans l'Union en tant que 42e État en 1889. Olympia est la capitale de l'État. Washington est parfois appelé l'État de Washington ou l'État de Washington pour le distinguer de Washington, D. C., la capitale des États-Unis, qui est souvent abrégée en Washington. Washington est le 18e plus grand État avec une superficie de 71 362 miles carrés (184 827 km²) et le 13e État le plus peuplé avec plus de 7 millions d'habitants. Environ 60 % des habitants de Washington vivent dans la région métropolitaine de Seattle, le centre des transports, des affaires et de l'industrie le long de la région de Puget Sound de la mer des Salish, un bras de mer de l'océan Pacifique composé de nombreuses îles, de fjords profonds et de baies creusées par les glaciers. Le reste de l'État se compose de forêts tropicales tempérées profondes à l'ouest, de chaînes de montagnes à l'ouest, au centre, au nord-est et à l'extrême sud-est, et d'une région de bassin semi-aride à l'est, au centre et au sud, consacrée à l'agriculture intensive. Washington est le deuxième État le plus peuplé de la côte ouest et de l'ouest des États-Unis, après la Californie. Le mont Rainier, un stratovolcan actif, est la plus haute altitude de l'État à près de 14 411 pieds (4 392 m) et est la montagne la plus proéminente topographiquement des États-Unis contigus. Washington est l'un des principaux producteurs de bois d'œuvre. Sa surface accidentée est riche en peuplements de sapins de Douglas, de pruches, de pins ponderosa, de pins blancs, d'épinettes, de mélèzes et de cèdres. L'État est le plus grand producteur de pommes, de houblon, de poires, de framboises rouges, d'huile de menthe verte et de cerises douces, et se classe parmi les meilleurs dans la production d'abricots, d'asperges, de pois secs comestibles, de raisins, de lentilles, d'huile de menthe poivrée et de pommes de terre. Le bétail et les produits de l'élevage contribuent de manière importante au revenu agricole total, et la pêche commerciale du saumon, du flétan et du poisson de fond contribue de manière significative à l'économie de l'État. Les industries manufacturières de Washington comprennent les avions et les missiles, la construction navale et d'autres équipements de transport, le bois d'œuvre, la transformation des aliments, les métaux et les produits métalliques, les produits chimiques et les machines. Washington compte plus de 1 000 barrages, dont le barrage de Grand Coulee, construits à diverses fins, notamment l'irrigation, l'électricité, le contrôle des inondations et le stockage de l'eau.
|
Views_on_the_Kyoto_Protocol
|
Cet article traite de certains points de vue sur le Protocole de Kyoto à la Convention-cadre des Nations Unies sur les changements climatiques. Une étude réalisée en 2007 par Gupta et al. a évalué la littérature sur la politique de changement climatique qui n'a montré aucune évaluation faisant autorité de la CCNUCC ou de son protocole, affirmant que ces accords ont réussi, ou réussiront, à résoudre pleinement le problème climatique. Il a été supposé que la CCNUCC ou son Protocole ne seraient pas modifiés. La Convention-cadre et son Protocole contiennent des dispositions pour les futures mesures politiques à prendre. Certains écologistes ont soutenu le Protocole de Kyoto parce que c'est « le seul jeu en ville », et peut-être parce qu'ils s'attendent à ce que les futurs engagements de réduction des émissions exigent des réductions d'émissions plus strictes (Aldy et al., 2003, p. 9). Certains écologistes et scientifiques ont critiqué les engagements existants comme étant trop faibles (Grubb, 2000, p. 5) . D'autre part, de nombreux économistes pensent que les engagements sont plus forts qu'il n'est justifié. Aux États-Unis en particulier, de nombreux économistes ont également critiqué l'absence d'engagements chiffrés pour les pays en développement (Grubb, 2000, p. 31).
|
War_risk_insurance
|
L'assurance risque de guerre est un type d'assurance qui couvre les dommages dus à des actes de guerre, y compris l'invasion, l'insurrection, la rébellion et le détournement d'avion. Certaines polices couvrent également les dommages dus aux armes de destruction massive. Il est le plus souvent utilisé dans les industries du transport maritime et de l'aviation. L'assurance contre les risques de guerre comporte généralement deux volets : la responsabilité civile contre les risques de guerre, qui couvre les personnes et les objets à l'intérieur de l'engin et est calculée en fonction du montant de l'indemnité ; et War Risk Hull, qui couvre l'engin lui-même et est calculé en fonction de la valeur de l'engin. La prime varie en fonction de la stabilité attendue des pays vers lesquels le navire se rendra. Les polices d'assurance privée contre les risques de guerre pour les avions ont été temporairement annulées à la suite des attentats du 11 septembre 2001, puis rétablies avec des indemnités nettement inférieures. À la suite de cette annulation, le gouvernement fédéral américain a mis en place un programme d'assurance contre le terrorisme pour couvrir les compagnies aériennes commerciales. L'Association internationale du transport aérien a fait valoir que les compagnies aériennes opérant dans des États qui ne fournissent pas d'assurance contre les risques de guerre sont désavantagées par rapport à la concurrence dans ce domaine. Une étude détaillée de l'assurance contre les risques de guerre et le terrorisme, y compris les risques connexes tels que les grèves, les émeutes, les troubles civils et le pouvoir militaire ou usurpé, est disponible auprès de l'Insurance Institute of London (Research Study Group Report 258).
|
Volkswagen_emissions_scandal
|
Le scandale des émissions de Volkswagen (aussi appelé « emissionsgate » ou « dieselgate ») a débuté le 18 septembre 2015, lorsque l'Agence de protection de l'environnement (EPA) des États-Unis a émis un avis de violation du Clean Air Act à l'encontre du constructeur automobile allemand Volkswagen Group. L'agence avait constaté que Volkswagen avait intentionnellement programmé des moteurs diesel turbocompressés à injection directe (TDI) pour activer certains contrôles d'émissions uniquement lors d'essais d'émissions en laboratoire. La programmation a permis aux véhicules de répondre aux normes américaines lors des tests réglementaires, mais d'émettre jusqu'à 40 fois plus en conduite réelle. Volkswagen a déployé ce programme dans environ onze millions de voitures dans le monde, et 500 000 aux États-Unis, entre 2009 et 2015. Les résultats proviennent d'une étude sur les écarts d'émissions entre les modèles européens et américains de véhicules commandée en 2014 par le Conseil international des transports propres (ICCT), résumant les données de trois sources différentes sur 15 véhicules. Parmi les groupes de recherche se trouvait un groupe de cinq scientifiques de l'Université de Virginie-Occidentale, qui ont détecté des émissions supplémentaires lors d'essais routiers en direct sur deux des trois voitures diesel. L'ICCT a également acheté des données auprès de deux autres sources. Les nouvelles données d'essais routiers et les données achetées ont été générées à l'aide de systèmes portables de mesure des émissions (PEMS) mis au point par plusieurs personnes entre le milieu et la fin des années 1990. Les résultats ont été fournis au California Air Resources Board (CARB) en mai 2014. Volkswagen est devenu la cible d'enquêtes réglementaires dans plusieurs pays, et le cours de l'action Volkswagen a chuté d'un tiers dans les jours qui ont suivi la nouvelle. Le PDG du groupe Volkswagen, Martin Winterkorn, a démissionné et le responsable du développement de la marque, Heinz-Jakob Neusser, le responsable de la recherche et du développement d'Audi, Ulrich Hackenberg, et le responsable de la recherche et du développement de Porsche, Wolfgang Hatz, ont été suspendus. Volkswagen a annoncé son intention de dépenser (plus tard porté à ) pour corriger les problèmes d'émissions, et a prévu de réinstaller les véhicules concernés dans le cadre d'une campagne de rappel. Le scandale a attiré l'attention sur les niveaux plus élevés de pollution émis par tous les véhicules construits par un large éventail de constructeurs automobiles, qui, dans des conditions de conduite réelles, sont susceptibles de dépasser les limites d'émissions légales. Une étude menée par l'ICCT et l'ADAC a révélé les plus grands écarts par rapport à Volvo, Renault, Jeep, Hyundai, Citroën et Fiat, ce qui a donné lieu à l'ouverture d'enquêtes sur d'autres scandales potentiels liés aux émissions diesel. Une discussion a été déclenchée sur le fait que les machines contrôlées par logiciel seront généralement sujettes à la triche, et qu'une solution serait de rendre le code source du logiciel accessible au public. Le 21 avril 2017, un juge fédéral américain a condamné Volkswagen « à payer une somme de 2 dollars. 8 milliards d'amende pénale pour avoir truqué des véhicules à moteur diesel afin de tricher aux tests d'émissions du gouvernement. L'accord de plaidoyer « sans précédent » a officialisé une sanction que Volkswagen AG avait acceptée plus tôt en 2017.
|
Wage_curve
|
La courbe des salaires est la relation négative entre les niveaux de chômage et les salaires qui apparaît lorsque ces variables sont exprimées en termes locaux. Selon David Blanchflower et Andrew Oswald (1994, p. 5), la courbe des salaires résume le fait qu'« un travailleur qui est employé dans une zone à fort taux de chômage gagne moins qu'un individu identique qui travaille dans une région à faible taux de chômage. »
|
Vulnerability_(computing)
|
En sécurité informatique, une vulnérabilité est une faiblesse qui permet à un attaquant de réduire l'assurance de l'information d'un système. La vulnérabilité est l'intersection de trois éléments : une susceptibilité ou une faille du système, l'accès de l'attaquant à la faille et la capacité de l'attaquant à exploiter la faille. Pour exploiter une vulnérabilité, un attaquant doit disposer d'au moins un outil ou d'une technique applicable qui peut se connecter à une faiblesse du système. Dans ce cadre, la vulnérabilité est également connue sous le nom de surface d'attaque. La gestion des vulnérabilités est la pratique cyclique d'identification, de classification, de correction et d'atténuation des vulnérabilités. Cette pratique fait généralement référence aux vulnérabilités logicielles dans les systèmes informatiques. L'utilisation de la vulnérabilité comme méthode d'activité criminelle ou pour créer des troubles civils relève du chapitre 113B du Code des États-Unis sur le terrorisme Un risque pour la sécurité peut être classé comme une vulnérabilité. L'utilisation de la vulnérabilité avec le même sens que le risque peut prêter à confusion. Le risque est lié à la possibilité d'une perte importante. Ensuite, il y a les vulnérabilités sans risque : par exemple lorsque l'actif affecté n'a aucune valeur. Une vulnérabilité avec un ou plusieurs cas connus d'attaques fonctionnelles et entièrement mises en œuvre est classée comme une vulnérabilité exploitable, c'est-à-dire une vulnérabilité pour laquelle un exploit existe. La fenêtre de vulnérabilité est le temps écoulé entre le moment où la faille de sécurité a été introduite ou s'est manifestée dans le logiciel déployé, et le moment où l'accès a été supprimé, où un correctif de sécurité a été disponible/déployé ou où l'attaquant a été désactivé (voir attaque zero-day). Le bug de sécurité (défaut de sécurité) est un concept plus restreint : il existe des vulnérabilités qui ne sont pas liées aux logiciels : les vulnérabilités matérielles, de site, de personnel sont des exemples de vulnérabilités qui ne sont pas des bugs de sécurité logicielle. Les constructions dans les langages de programmation qui sont difficiles à utiliser correctement peuvent être une source importante de vulnérabilités.
|
Vernacular_geography
|
La géographie vernaculaire est le sens du lieu qui est révélé dans le langage des gens ordinaires. Les recherches actuelles de l'Ordnance Survey tentent de comprendre les points de repère, les rues, les espaces ouverts, les plans d'eau, les reliefs, les champs, les bois et de nombreuses autres caractéristiques topologiques. Ces termes descriptifs couramment utilisés n'utilisent pas nécessairement les noms officiels ou actuels des fonctionnalités ; Et souvent, ces concepts de lieux n'ont pas de frontières claires et rigides. Par exemple, il arrive que le même nom fasse référence à plus d'une entité, et parfois que les habitants d'une localité utilisent plus d'un nom pour la même entité. Lorsque les gens se réfèrent à des régions géographiques sous une forme vernaculaire, elles sont communément appelées régions imprécises. Les régions peuvent inclure de vastes zones d'un pays telles que le Midwest américain, les Midlands britanniques, les Alpes suisses, le sud-est de l'Angleterre et le sud de la Californie ; ou des zones plus petites comme la Silicon Valley dans le nord de la Californie. Les descriptions couramment utilisées de zones de villes telles que le centre-ville d'une ville, l'Upper East Side de New York, le mile carré de Londres ou le Quartier latin de Paris peuvent également être considérées comme des régions imprécises.
|
Volcanic_winter
|
Un hiver volcanique est une réduction des températures mondiales causée par des cendres volcaniques et des gouttelettes d'acide sulfurique et d'eau obscurcissant le Soleil et augmentant l'albédo de la Terre (augmentant la réflexion du rayonnement solaire) après une éruption volcanique importante et particulièrement explosive. Les effets de refroidissement à long terme dépendent principalement de l'injection de gaz soufrés dans la stratosphère où ils subissent une série de réactions pour créer de l'acide sulfurique qui peut se nucléer et former des aérosols. Les aérosols stratosphériques volcaniques refroidissent la surface en réfléchissant le rayonnement solaire et réchauffent la stratosphère en absorbant le rayonnement terrestre. Il a été démontré que les aérosols volcaniques, résultant de l'éruption du Pinatubo en 1991 et d'autres, contribuent à l'appauvrissement de la couche d'ozone anthropique. Les variations du réchauffement et du refroidissement atmosphériques entraînent des changements dans la circulation troposphérique et stratosphérique.
|
Vertical_disintegration
|
La désintégration verticale fait référence à une forme d'organisation spécifique de la production industrielle. Contrairement à l'intégration verticale, dans laquelle la production se produit au sein d'une seule organisation, la désintégration verticale signifie que diverses déséconomies d'échelle ou de portée ont divisé un processus de production en sociétés distinctes, chacune effectuant un sous-ensemble limité d'activités nécessaires à la création d'un produit fini. Le divertissement filmé était autrefois fortement intégré verticalement dans un système de studio où quelques grands studios s'occupaient de tout, de la production à la présentation en salle. Après la Seconde Guerre mondiale, l'industrie a été scindée en petits fragments, chacun se spécialisant dans des tâches particulières au sein de la division du travail requise pour produire et montrer une pièce finie de divertissement filmé. Hollywood s'est fortement désintégré verticalement, avec des entreprises spécialisées qui n'effectuaient que certaines tâches telles que le montage, les effets spéciaux, les bandes-annonces, etc. La cession du système Bell a eu un effet similaire sur une industrie plus importante plus tard au 20e siècle. L'une des principales raisons de la désintégration verticale est le partage des risques. De plus, dans certains cas, les petites entreprises peuvent être plus réactives aux changements des conditions du marché. La désintégration verticale est donc plus probable lorsque l'on opère sur des marchés volatils. La stabilité et les produits normalisés engendrent plus généralement l'intégration, car ils offrent les avantages des économies d'échelle. La géographie d'une industrie désintégrée n'est pas acquise. Les géographes économiques font généralement la distinction entre les activités à forte intensité de connaissances, volatiles et non normalisées, et la production standardisée et routinière. Les premiers ont tendance à être regroupés dans l'espace, car ils ont besoin de proximité pour construire un cadre conceptuel commun et partager de nouvelles idées. Ces dernières peuvent être très éloignées et sont illustrées par les chaînes mondiales de produits de base telles que les industries de l'habillement et de l'automobile. Cependant, même dans ces secteurs, le design et d'autres tâches créatives et non répétitives ont tendance à présenter un certain regroupement géographique.
|
Venus
|
Vénus est la deuxième planète à partir du Soleil, en orbite autour d'elle tous les 224 points. 7 jours terrestres. Elle a la plus longue période de rotation (243 jours) de toutes les planètes du système solaire et tourne dans la direction opposée à la plupart des autres planètes. Il n'a pas de satellites naturels. Il porte le nom de la déesse romaine de l'amour et de la beauté. C'est le deuxième objet naturel le plus brillant du ciel nocturne après la Lune, atteignant une magnitude apparente de − 4. 6, assez brillante pour projeter des ombres la nuit et, bien que rare, être parfois visible en plein jour. Parce que Vénus orbite dans l'orbite de la Terre, c'est une planète inférieure et ne semble jamais s'aventurer loin du Soleil ; sa distance angulaire maximale par rapport au Soleil (élongation) est de 47. 8 °. Vénus est une planète tellurique et est parfois appelée la « planète sœur » de la Terre en raison de sa taille, de sa masse, de sa proximité du Soleil et de sa composition en vrac similaires. Elle est radicalement différente de la Terre à d'autres égards. Elle possède l'atmosphère la plus dense des quatre planètes telluriques, composée de plus de 96 % de dioxyde de carbone. La pression atmosphérique à la surface de la planète est 92 fois supérieure à celle de la Terre, soit à peu près la pression trouvée à 900 m sous l'eau sur Terre. Vénus est de loin la planète la plus chaude du système solaire, avec une température de surface moyenne de 735 K, même si Mercure est plus proche du Soleil. Vénus est enveloppée d'une couche opaque de nuages d'acide sulfurique hautement réfléchissants, empêchant sa surface d'être vue de l'espace en lumière visible. Il a peut-être eu des océans d'eau dans le passé, mais ceux-ci se seraient vaporisés à mesure que la température augmentait en raison d'un effet de serre incontrôlable. L'eau s'est probablement photodissociée, et l'hydrogène libre a été balayé dans l'espace interplanétaire par le vent solaire en raison de l'absence d'un champ magnétique planétaire. La surface de Vénus est un paysage désertique sec entrecoupé de roches ressemblant à des dalles et est périodiquement remontée à la surface par le volcanisme. En tant que l'un des objets les plus brillants du ciel, Vénus est un élément majeur de la culture humaine depuis aussi longtemps que des archives existent. Elle a été rendue sacrée aux dieux de nombreuses cultures, et a été une source d'inspiration primordiale pour les écrivains et les poètes en tant qu'« étoile du matin » et « étoile du soir ». Vénus a été la première planète à avoir ses mouvements tracés dans le ciel, dès le deuxième millénaire avant JC. En tant que planète la plus proche de la Terre, Vénus a été une cible de choix pour les premières explorations interplanétaires. C'était la première planète au-delà de la Terre visitée par un vaisseau spatial (Mariner 2 en 1962), et la première à atterrir avec succès (par Venera 7 en 1970). Les nuages épais de Vénus rendent impossible l'observation de sa surface en lumière visible, et les premières cartes détaillées n'ont émergé qu'avec l'arrivée de l'orbiteur Magellan en 1991. Des plans ont été proposés pour des rovers ou des missions plus complexes, mais ils sont entravés par les conditions de surface hostiles de Vénus.
|
Victoria_Land
|
La Terre Victoria est une région de l'Antarctique qui fait face au côté ouest de la mer de Ross et à la plate-forme glaciaire de Ross, s'étendant vers le sud d'environ 70 ° 30 'S à 78 ° 00 'S, et vers l'ouest de la mer de Ross jusqu'au bord du plateau antarctique. Il a été découvert par le capitaine James Clark Ross en janvier 1841 et nommé d'après la reine Victoria du Royaume-Uni. Le promontoire rocheux de Minna Bluff est souvent considéré comme le point le plus méridional de la Terre Victoria et sépare la côte Scott au nord de la côte Hillary de la dépendance de Ross au sud. La région comprend des chaînes de montagnes transantarctiques et les vallées sèches de McMurdo (le point culminant étant le mont Abbott dans les contreforts du nord), et les plaines connues sous le nom de Labyrinthe. Parmi les premiers explorateurs de la Terre Victoria, mentionnons James Clark Ross et Douglas Mawson.
|
Virginia_Beach,_Virginia
|
Virginia Beach est une ville indépendante située dans le Commonwealth de Virginie dans la région Mid-Atlantic des États-Unis. Au recensement de 2010, la population était de 437 994 habitants. En 2015, la population était estimée à 452 745 habitants. Bien qu'elle soit principalement suburbaine, c'est la ville la plus peuplée de Virginie et la 41e ville la plus peuplée du pays. Située sur l'océan Atlantique à l'embouchure de la baie de Chesapeake, Virginia Beach fait partie de la région métropolitaine de Hampton Roads. Cette zone, connue sous le nom de « Première région de l'Amérique », comprend également les villes indépendantes de Chesapeake, Hampton, Newport News, Norfolk, Portsmouth et Suffolk, ainsi que d'autres petites villes, comtés et villes de Hampton Roads. Virginia Beach est une station balnéaire avec des kilomètres de plages et des centaines d'hôtels, de motels et de restaurants le long de son front de mer. Chaque année, la ville accueille les championnats de surf de la côte Est ainsi que le championnat nord-américain de sable, un tournoi de beach soccer. Il abrite également plusieurs parcs d'État, plusieurs plages protégées depuis longtemps, trois bases militaires, un certain nombre de grandes entreprises, deux universités, le siège international et le site des studios de diffusion télévisée du Christian Broadcasting Network (CBN) de Pat Robertson, de l'Association pour la recherche et l'illumination d'Edgar Cayce et de nombreux sites historiques. Près du point de rencontre de la baie de Chesapeake et de l'océan Atlantique, le cap Henry a été le site du premier débarquement des colons anglais, qui se sont finalement installés à Jamestown, le 26 avril 1607. La ville est répertoriée dans le livre Guinness des records comme ayant la plus longue plage de plaisance au monde. Il est situé à l'extrémité sud du pont-tunnel de la baie de Chesapeake, le plus long complexe de ponts-tunnels au monde.
|
Volcanology_of_Iceland
|
Le système volcanique islandais qui a commencé son activité le 17 août 2014 et s'est terminé le 27 février 2015 est le Bárðarbunga. Le volcan islandais qui est entré en éruption en mai 2011 est Grímsvötn. La volcanologie de l'Islande comprend une forte concentration de volcans actifs en raison de l'emplacement de l'Islande sur la dorsale médio-atlantique, d'une limite de plaque tectonique divergente, et également en raison de son emplacement au-dessus d'un point chaud. L'île possède 30 systèmes volcaniques actifs, dont 13 sont entrés en éruption depuis la colonisation de l'Islande en 874 après JC. De ces 30 systèmes volcaniques actifs, le plus actif/volatil est Grímsvötn. Au cours des 500 dernières années, les volcans islandais ont produit un tiers de la production mondiale totale de lave. L'éruption volcanique la plus meurtrière de l'histoire de l'Islande a été le soi-disant Skaftáreldar (incendies de Skaftá) en 1783-84. L'éruption s'est produite dans la rangée de cratères Lakagígar (cratères de Laki) au sud-ouest du glacier Vatnajökull. Les cratères font partie d'un système volcanique plus vaste avec le sous-glaciaire Grímsvötn comme volcan central. Environ un quart de la nation islandaise est morte à cause de l'éruption. La plupart sont morts non pas à cause de la coulée de lave ou d'autres effets directs de l'éruption, mais d'effets indirects, notamment des changements climatiques et des maladies du bétail dans les années suivantes causées par les cendres et les gaz toxiques de l'éruption. L'éruption de 1783 à Lakagígar est considérée comme ayant déclenché la plus grande quantité de lave à partir d'une seule éruption dans les temps historiques. L'éruption sous l'Eyjafjallajökull (« glacier de l'Eyjafjöll ») en 2010 a été notable car le panache de cendres volcaniques a perturbé le transport aérien en Europe du Nord pendant plusieurs semaines ; cependant, ce volcan est mineur en termes islandais. Dans le passé, les éruptions de l'Eyjafjallajökull ont été suivies par l'éruption du plus grand volcan Katla, mais après l'éruption de 2010, aucun signe d'une éruption imminente du Katla n'a été observé. L'éruption de mai 2011 à Grímsvötn sous le glacier Vatnajökull a envoyé des milliers de tonnes de cendres dans le ciel en quelques jours, faisant craindre une répétition du chaos des voyages observé dans le nord de l'Europe.
|
Volcanoes_of_the_Galápagos_Islands
|
Les îles Galápagos sont un ensemble isolé de volcans, composé de volcans boucliers et de plateaux de lave, situés à 1200 km à l'ouest de l'Équateur. Ils sont conduits par le hotspot des Galápagos, et sont entre 4. 2 millions et 700 000 ans. La plus grande île, Isabela, se compose de six volcans boucliers coalisés, chacun délimité par une grande caldeira sommitale. Española, l'île la plus ancienne, et Fernandina, la plus jeune, sont également des volcans boucliers, comme le sont la plupart des autres îles de la chaîne. Les îles Galápagos sont perchées sur un grand plateau de lave connu sous le nom de plate-forme des Galápagos, qui crée une profondeur d'eau peu profonde de 360 à la base des îles, qui s'étendent sur un diamètre de 174 miles de long. Depuis la célèbre visite de Charles Darwin dans les îles en 1835, plus de 60 éruptions enregistrées se sont produites dans les îles, à partir de six volcans boucliers différents. Sur les 21 volcans émergents, 13 sont considérés comme actifs. Les Galápagos sont géologiquement jeunes pour une si grande chaîne, et le modèle de leurs zones de rift suit l'une des deux tendances, l'une nord-nord-ouest et l'autre est-ouest. La composition des laves des boucliers des Galápagos est étonnamment similaire à celle des volcans hawaïens. Curieusement, ils ne forment pas la même « ligne » volcanique associée à la plupart des points chauds. Ils ne sont pas les seuls à cet égard ; la chaîne des monts sous-marins Cobb-Eickelberg dans le Pacifique Nord est un autre exemple d'une telle chaîne délimitée. De plus, aucun modèle d'âge clair n'est observé entre les volcans, ce qui suggère un modèle de création compliqué et irrégulier. La formation exacte des îles reste un mystère géologique, bien que plusieurs théories aient été avancées.
|
Virtual_globe
|
Un globe virtuel est un modèle logiciel tridimensionnel (3D) ou une représentation de la Terre ou d'un autre monde. Un globe virtuel offre à l'utilisateur la possibilité de se déplacer librement dans l'environnement virtuel en modifiant l'angle de vue et la position. Par rapport à un globe conventionnel, les globes virtuels ont la capacité supplémentaire de représenter de nombreuses vues différentes à la surface de la Terre. Il peut s'agir de caractéristiques géographiques, d'éléments artificiels tels que les routes et les bâtiments, ou de représentations abstraites de quantités démographiques telles que la population. Le 20 novembre 1997, Microsoft a lancé un globe virtuel hors ligne sous la forme d'Encarta Virtual Globe 98, suivi de l'Atlas du monde 3D de Cosmi en 1999. Les premiers globes virtuels en ligne largement médiatisés ont été NASA World Wind (sorti à la mi-2004) et Google Earth (mi-2005). En septembre 2015, la NOAA a publié son globe virtuel, Science On A Sphere (SOS) Explorer.
|
Vulcano_(band)
|
Vulcano est un groupe de metal extrême, originaire de Santos, São Paulo, au Brésil. Fondé en 1981, c'est l'un des premiers groupes de heavy metal brésiliens à se faire remarquer. en référence à leur influence sur la scène black metal sud-américaine, Terrorizer a rapporté que « beaucoup pensent que Vulcano n'a pas seulement déclenché un blasphème musical au Brésil, mais dans toute l'Amérique latine ». Vulcano est noté comme une influence sur Sepultura.
|
Veganism
|
Le véganisme est à la fois la pratique de s'abstenir d'utiliser des produits d'origine animale, en particulier dans l'alimentation, et une philosophie associée qui rejette le statut de marchandise des animaux. Un adepte du régime ou de la philosophie est connu sous le nom de végétalien (prononcé). Des distinctions sont parfois faites entre plusieurs catégories de véganisme. Les végétaliens diététiques (ou végétariens stricts) s'abstiennent de consommer des produits d'origine animale, non seulement de la viande, mais aussi des œufs, des produits laitiers et d'autres substances d'origine animale. Le terme végétalien éthique est souvent appliqué à ceux qui non seulement suivent un régime végétalien, mais étendent la philosophie à d'autres domaines de leur vie et s'opposent à l'utilisation des animaux à quelque fin que ce soit. Un autre terme est le véganisme environnemental, qui fait référence à l'évitement des produits animaux en partant du principe que la récolte ou l'élevage industriel des animaux est nuisible à l'environnement et non durable. Donald Watson a inventé le terme végétalien en 1944 lorsqu'il a cofondé la Vegan Society en Angleterre. Au début, il l'utilisait pour signifier « végétarien non laitier », mais à partir de 1951, la société l'a défini comme « la doctrine selon laquelle l'homme devrait vivre sans exploiter les animaux ». L'intérêt pour le véganisme a augmenté dans les années 2010. De plus en plus de magasins végétaliens ont ouvert leurs portes et les options végétaliennes sont devenues de plus en plus disponibles dans les supermarchés et les restaurants de nombreux pays. Les régimes végétaliens ont tendance à être plus riches en fibres alimentaires, en magnésium, en acide folique, en vitamine C, en vitamine E, en fer et en composés phytochimiques, et plus faibles en énergie alimentaire, en graisses saturées, en cholestérol, en acides gras oméga-3 à longue chaîne, en vitamine D, en calcium, en zinc et en vitamine B12. Un régime végétalien bien planifié peut réduire le risque de certains types de maladies chroniques, y compris les maladies cardiaques. Ils sont considérés comme appropriés pour toutes les étapes du cycle de vie par l'American Academy of Nutrition and Dietetics. La Société allemande de nutrition met en garde contre les régimes végétaliens pour les enfants, ainsi que pendant la grossesse et l'allaitement. Parce que les aliments végétaux non contaminés ne fournissent pas de vitamine B12 (qui est produite par des micro-organismes tels que les bactéries), les chercheurs s'accordent à dire que les végétaliens devraient manger des aliments enrichis en B12 ou prendre un supplément.
|
Waste-to-energy_plant
|
Une usine de valorisation énergétique des déchets est une installation de gestion des déchets qui brûle des déchets pour produire de l'électricité. Ce type de centrale électrique est parfois appelé usine de valorisation énergétique des déchets, d'incinération des déchets municipaux, de récupération d'énergie ou de récupération des ressources. Les installations modernes de valorisation énergétique des déchets sont très différentes des incinérateurs de déchets qui étaient couramment utilisés jusqu'à il y a quelques décennies. Contrairement aux usines modernes, ces usines n'enlevaient généralement pas les matériaux dangereux ou recyclables avant de brûler. Ces incinérateurs mettaient en danger la santé des travailleurs de l'usine et des riverains, et la plupart d'entre eux ne produisaient pas d'électricité. La production de déchets à partir d'énergie est de plus en plus considérée comme une stratégie potentielle de diversification énergétique, en particulier par la Suède, qui a été un leader dans la production de déchets à partir d'énergie au cours des 20 dernières années. La fourchette typique d'énergie électrique nette qui peut être produite est d'environ 500 à 600 kWh par tonne de déchets incinérés. Ainsi, l'incinération d'environ 2 200 tonnes par jour de déchets produira environ 50 MW d'énergie électrique.
|
Vertisol
|
Dans la taxonomie des sols de la FAO et de l'USDA, un vertisol (Vertosol dans la classification australienne des sols) est un sol dans lequel il y a une forte teneur en argile expansive connue sous le nom de montmorillonite qui forme des fissures profondes pendant les saisons ou les années plus sèches. L'alternance de rétrécissement et de gonflement provoque un auto-paillage, où le matériau du sol se mélange constamment, ce qui fait que les vertisols ont un horizon A extrêmement profond et aucun horizon B. (Un sol sans horizon B est appelé un sol A/C) . Ce soulèvement du matériau sous-jacent à la surface crée souvent un microrelief connu sous le nom de gilgai. Les vertisols se forment généralement à partir de roches très basiques, telles que le basalte, dans les climats saisonniers humides ou sujets à des sécheresses et des inondations erratiques, ou qui ont entravé le drainage. Selon le matériau d'origine et le climat, ils peuvent aller du gris ou du rouge au noir profond plus familier (connu sous le nom de « terres noires » en Australie, « gombo noir » dans l'est du Texas et sols de « coton noir » en Afrique de l'Est). Les vertisols se trouvent entre 50°N et 45°S de l'équateur. Les principales zones où les vertisols sont dominants sont l'est de l'Australie (en particulier l'intérieur du Queensland et de la Nouvelle-Galles du Sud), le plateau du Deccan en Inde et certaines parties du sud du Soudan, de l'Éthiopie, du Kenya et du Tchad (la Gezira), ainsi que le cours inférieur du fleuve Paraná en Amérique du Sud. D'autres zones où les vertisols sont dominants comprennent le sud du Texas et le Mexique adjacent, le centre de l'Inde, le nord-est du Nigeria, la Thrace, la Nouvelle-Calédonie et certaines parties de l'est de la Chine. La végétation naturelle des vertisols est constituée de prairies, de savanes ou de bois herbeux. La texture lourde et le comportement instable du sol rendent difficile la croissance de nombreuses espèces d'arbres, et la forêt est rare. Le rétrécissement et le gonflement des vertisols peuvent endommager les bâtiments et les routes, entraînant un affaissement important. Les vertisols sont généralement utilisés pour le pâturage des bovins ou des ovins. Il n'est pas rare que le bétail soit blessé en tombant dans les fissures pendant les périodes sèches. À l'inverse, de nombreux ongulés sauvages et domestiques n'aiment pas se déplacer sur ce sol lorsqu'ils sont inondés. Cependant, l'activité de gonflement de retrait permet une récupération rapide du compactage. Lorsque l'irrigation est disponible, des cultures telles que le coton, le blé, le sorgho et le riz peuvent être cultivées. Les vertisols sont particulièrement adaptés au riz car ils sont presque imperméables lorsqu'ils sont saturés. L'agriculture pluviale est très difficile car les vertisols ne peuvent être travaillés que dans une gamme très étroite de conditions d'humidité : ils sont très durs lorsqu'ils sont secs et très collants lorsqu'ils sont mouillés. Cependant, en Australie, les vertisols sont très appréciés, car ils font partie des rares sols qui ne présentent pas de carence aiguë en phosphore disponible. Certains, connus sous le nom de « vertisols croûteux », ont une croûte mince et dure lorsqu'ils sont secs qui peuvent persister pendant deux à trois ans avant de s'effriter suffisamment pour permettre l'ensemencement. Dans la taxonomie des sols des États-Unis, les vertisols sont subdivisés en : Aquerts : Les vertisols qui sont des conditions aquiques modérées pendant un certain temps dans la plupart des années et présentent des caractéristiques rédoximorphes sont regroupés en Aquerts. En raison de la forte teneur en argile, la perméabilité est ralentie et des conditions aquiques sont susceptibles de se produire. En général, lorsque les précipitations dépassent l'évapotranspiration, des flaques d'eau peuvent se produire. Dans des conditions d'humidité du sol humide, le fer et le manganèse sont mobilisés et réduits. Le manganèse peut être en partie responsable de la couleur foncée du profil du sol. Cryerts (non classé comme vertisols dans la classification FAO) : Ils ont un régime de température du sol cryique. Les Cryerts sont plus répandus dans les prairies et les zones de transition forêt-prairie des Prairies canadiennes et à des latitudes similaires en Russie. Xererts : Ils ont un régime de température du sol thermique, mésique ou glacial. Ils montrent des fissures qui sont ouvertes au moins 60 jours consécutifs pendant l'été, mais qui sont fermées au moins 60 jours consécutifs pendant l'hiver. Les Xererts sont les plus répandus dans l'est de la Méditerranée et dans certaines parties de la Californie. Torrerts : Ils ont des fissures qui sont fermées pendant moins de 60 jours consécutifs lorsque la température du sol à 50 cm est supérieure à 8 ° C. Ces sols ne sont pas extensifs aux États-Unis et se trouvent principalement dans l'ouest du Texas, le Nouveau-Mexique, l'Arizona et le Dakota du Sud, mais constituent le sous-ordre de vertisols le plus étendu en Australie. Userts : Ils ont des fissures qui sont ouvertes pendant au moins 90 jours cumulés par an. À l'échelle mondiale, ce sous-ordre est le plus étendu de l'ordre des vertisoles, englobant les vertisols des tropiques et les climats de mousson en Australie, en Inde et en Afrique. Aux États-Unis, les Usterts sont communs au Texas, au Montana, à Hawaï et en Californie. Uderts : Ils ont des fissures qui sont ouvertes moins de 90 jours cumulés par an et moins de 60 jours consécutifs pendant l'été. Dans certaines régions, les fissures ne s'ouvrent que les années de sécheresse. Les Uderts sont de petite envergure à l'échelle mondiale, étant plus abondants en Uruguay et dans l'est de l'Argentine, mais on les trouve également dans certaines parties du Queensland et de la « ceinture noire » du Mississippi et de l'Alabama.
|
Volcano
|
Un volcan est une rupture dans la croûte d'un objet de masse planétaire, tel que la Terre, qui permet à la lave chaude, aux cendres volcaniques et aux gaz de s'échapper d'une chambre magmatique sous la surface. Les volcans de la Terre se produisent parce que sa croûte est brisée en 17 plaques tectoniques majeures et rigides qui flottent sur une couche plus chaude et plus molle de son manteau. Par conséquent, sur Terre, les volcans se trouvent généralement là où les plaques tectoniques divergent ou convergent, et la plupart se trouvent sous l'eau. Par exemple, une dorsale médio-océanique, telle que la dorsale médio-atlantique, a des volcans causés par des plaques tectoniques divergentes qui se séparent ; la ceinture de feu du Pacifique a des volcans causés par des plaques tectoniques convergentes qui se rassemblent. Les volcans peuvent également se former là où il y a étirement et amincissement de la croûte, par exemple, dans le rift est-africain et le champ volcanique Wells Gray-Clearwater et le rift Rio Grande en Amérique du Nord. Ce type de volcanisme relève de l'hypothèse des plaques : le volcanisme. Le volcanisme loin des limites des plaques a également été expliqué comme des panaches mantelliques. Ces soi-disant « points chauds », par exemple Hawaï, sont supposés provenir de diapirs de remontée d'eau avec du magma provenant du noyau - limite du manteau, à 3 000 km de profondeur dans la Terre. Les volcans ne sont généralement pas créés là où deux plaques tectoniques glissent l'une sur l'autre. Les volcans en éruption peuvent présenter de nombreux dangers, et pas seulement dans le voisinage immédiat de l'éruption. L'un de ces dangers est que les cendres volcaniques peuvent constituer une menace pour les avions, en particulier ceux équipés de moteurs à réaction où les particules de cendres peuvent être fondues par la température de fonctionnement élevée ; Les particules fondues adhèrent alors aux pales de la turbine et modifient leur forme, perturbant le fonctionnement de la turbine. Les grandes éruptions peuvent affecter la température car les cendres et les gouttelettes d'acide sulfurique obscurcissent le soleil et refroidissent la basse atmosphère (ou troposphère) de la Terre ; cependant, ils absorbent également la chaleur rayonnée de la Terre, réchauffant ainsi la haute atmosphère (ou stratosphère). Historiquement, les hivers dits volcaniques ont provoqué des famines catastrophiques.
|
Venera
|
Les sondes spatiales de la série Venera (, -LSB- vjɪˈnjɛrə -RSB-) ont été développées par l'Union soviétique entre 1961 et 1984 pour recueillir des données sur Vénus, Venera étant le nom russe de Vénus. Comme pour certaines des autres sondes planétaires de l'Union soviétique, les versions ultérieures ont été lancées par paires, un deuxième véhicule étant lancé peu de temps après le premier de la paire. Dix sondes de la série Venera ont atterri avec succès sur Vénus et ont transmis des données depuis la surface de Vénus, y compris les deux sondes du programme Vega et Venera-Halley. De plus, treize sondes Venera ont transmis avec succès des données de l'atmosphère de Vénus. Parmi les autres résultats, les sondes de la série sont devenues les premiers appareils fabriqués par l'homme à entrer dans l'atmosphère d'une autre planète (Venera 4 le 18 octobre 1967), à effectuer un atterrissage en douceur sur une autre planète (Venera 7 le 15 décembre 1970), à renvoyer des images de la surface planétaire (Venera 9 le 8 juin 1975) et à effectuer des études de cartographie radar à haute résolution de Vénus (Venera 15 le 2 juin, 1983) . Les sondes ultérieures de la série Venera ont mené à bien leur mission, fournissant les premières observations directes de la surface de Vénus. Étant donné que les conditions de surface de Vénus sont extrêmes, les sondes n'ont survécu à la surface que pendant des durées variant de 23 minutes (sondes initiales) à environ deux heures (sondes finales).
|
Visalia,_California
|
Visalia (-LSB- vaɪˈseɪljə -RSB-) est une ville située dans la vallée agricole de San Joaquin en Californie, à environ 230 km au sud-est de San Francisco, 190 km au nord de Los Angeles, 36 km à l'ouest du parc national de Sequoia et 43 km au sud de Fresno. La population était de 130 104 habitants au recensement de 2015. Visalia est la 5e plus grande ville de la vallée de San Joaquin après Fresno, Bakersfield, Stockton et Modesto, la 44e plus peuplée de Californie et la 198e des États-Unis. En tant que siège du comté de Tulare, Visalia sert de centre économique et gouvernemental à l'un des comtés agricoles les plus productifs du pays. Les parcs nationaux de Yosemite, Sequoia et Kings Canyon sont situés dans les montagnes voisines de la Sierra Nevada, la plus haute chaîne de montagnes des États-Unis contigus.
|
WECT_tower
|
La tour WECT était un mât de 1905 pieds de haut utilisé comme antenne pour la diffusion de la télévision, y compris la diffusion du signal de télévision analogique du canal 6 de WECT. Il a été construit en 1969 et était situé le long de la NC 53 au sud de White Lake dans le canton de Colly dans le comté de Bladen, en Caroline du Nord, aux États-Unis. Avant sa démolition, la WECT Tower était, avec plusieurs autres mâts, la septième plus haute structure artificielle jamais créée. et n'était pas seulement la plus haute structure de Caroline du Nord, mais aussi la plus haute des États-Unis à l'est du fleuve Mississippi. Le 8 septembre 2008, WECT a cessé de transmettre régulièrement son signal analogique à partir de la tour du comté de Bladen, s'appuyant plutôt sur son nouvel émetteur numérique à Winnabow. Suite au changement, le signal analogique est resté à l'antenne jusqu'à la fin du mois de septembre en tant que « Nightlight », diffusant une vidéo d'instruction expliquant l'installation des convertisseurs et des antennes UHF, mais beaucoup de ceux qui étaient en mesure de recevoir l'ancien signal analogique VHF de WECT ne seraient plus en mesure de recevoir la station du tout numériquement, en raison d'un passage à un canal UHF et d'une zone de couverture beaucoup plus petite. WECT a continué à utiliser l'ancienne tour analogique à des fins de collecte d'informations électroniques avant de faire don de la tour et du site de 77 acres à la Fondation des bérets verts en 2011. Le 20 septembre 2012, la tour a été démolie pour être mise au rebut. Le produit de la vente du terrain et de la ferraille de la tour ira à la fondation.
|
Vegetation
|
La végétation est constituée d'assemblages d'espèces végétales et de la couverture végétale qu'elles fournissent. Il s'agit d'un terme général, sans référence spécifique à des taxons particuliers, des formes de vie, une structure, une étendue spatiale ou toute autre caractéristique botanique ou géographique spécifique. Il est plus large que le terme flore qui fait référence à la composition des espèces. Peut-être que le synonyme le plus proche est communauté végétale, mais la végétation peut, et c'est souvent le cas, faire référence à une gamme d'échelles spatiales plus large que ce terme, y compris des échelles aussi grandes que la échelle mondiale. Forêts vierges de séquoias, mangroves côtières, tourbières de sphaignes, croûtes de sol désertiques, parcelles de mauvaises herbes en bordure de route, champs de blé, jardins cultivés et pelouses ; Tous sont englobés par le terme végétation. Le type de végétation est défini par une espèce dominante caractéristique, ou un aspect commun de l'assemblage, tel qu'une plage d'altitude ou une similitude environnementale. L'utilisation contemporaine de la végétation se rapproche de celle de l'écologiste Frederic Clements, expression encore utilisée par le Bureau of Land Management. La végétation naturelle fait référence à la vie végétale dont la croissance n'a pas été perturbée par l'homme et qui est contrôlée par les conditions climatiques de cette région.
|
Visions_of_the_21st_century
|
« Visions du 21ème siècle » est un discours prononcé par Carl Sagan lors de la célébration du cinquantième anniversaire des Nations Unies le 24 octobre 1995 (Journée des Nations Unies) à New York dans la cathédrale Saint-Jean le Divin. Dans l'introduction, Sagan discute de l'unité humaine qui est présente dans le monde malgré sa grande diversité humaine. Il souligne que nous, en tant qu'humains, sommes tous des cousins qui peuvent être retracés à travers l'ascendance humaine en Afrique de l'Est. Le thème du discours de Sagan a souligné l'importance de favoriser une communauté mondiale. Ce thème de Visions du XXIe siècle représente le thème général de la célébration du cinquantième anniversaire de l'ONU, qui était « Nous, les peuples des Nations Unies... Unis pour un monde meilleur ». Il souligne l'importance de maintenir un environnement mondial sain, car les changements dans l'environnement mondial sont une menace commune à l'ensemble de l'humanité. Le changement de l'environnement mondial sur lequel il se concentre est le changement climatique. Il développe également le grand pouvoir que la technologie moderne permet à chaque nation de posséder. Il fait l'éloge des progrès de la technologie médicale dans le monde en particulier. Pourtant, Sagan avertit que le mélange de puissance technologique et d'ignorance a le potentiel de conduire au désastre. Ainsi, cet énorme pouvoir doit être protégé contre les abus. Pour ce faire, Sagan suggère qu'une connaissance généralisée de la science et de la technologie est bénéfique. Sagan discute de la présence minuscule de la Terre dans la vaste échelle du cosmos, et de la façon dont c'est une illusion de croire que nous, en tant qu'humains, sommes en quelque sorte l'élite de l'univers. Sagan implore l'humanité de protéger et de chérir cette terre que nous connaissons, car elle est de la seule responsabilité de l'humanité.
|
Washington_Times-Herald
|
Le Washington Times-Herald (1939 - 1954) était un quotidien américain publié à Washington. Il a été créé par Eleanor « Cissy » Patterson de la famille Medill -- McCormick -- Patterson (propriétaires de longue date du Chicago Tribune et du New York Daily News et fondant plus tard Newsday à Long Island à New York) lorsqu'elle a acheté le Washington Times et le Herald à l'éditeur de journaux du syndicat William Randolph Hearst (1863 - 1951), et les a fusionnés. Le résultat a été un journal « 24 heures sur 24 », avec 10 éditions par jour, du matin au soir.
|
Volcanology_of_Venus
|
La surface de Vénus est dominée par des caractéristiques volcaniques et compte plus de volcans que toute autre planète du système solaire. Sa surface est composée à 90 % de basalte, et environ 65 % de la planète est constituée d'une mosaïque de plaines de lave volcanique, ce qui indique que le volcanisme a joué un rôle majeur dans la formation de sa surface. Il y a plus de 1000 structures volcaniques et possible resurfaçage périodique de Vénus par des inondations de lave. La planète a peut-être connu un événement majeur de remontée à la surface il y a environ 500 millions d'années, d'après ce que les scientifiques peuvent dire à partir de la densité des cratères d'impact à la surface. Vénus a une atmosphère riche en dioxyde de carbone, avec une densité 90 fois supérieure à celle de la Terre. Même s'il y a plus de 1 600 volcans majeurs sur Vénus, aucun n'est connu pour être en éruption à l'heure actuelle et la plupart sont probablement éteints depuis longtemps. Cependant, le sondage radar de la sonde Magellan a révélé des preuves d'une activité volcanique relativement récente sur le plus haut volcan de Vénus, Maat Mons, sous la forme de coulées de cendres près du sommet et sur le flanc nord. Bien que de nombreuses sources de preuves suggèrent que Vénus est probablement volcaniquement active, les éruptions actuelles à Maat Mons n'ont pas été confirmées.
|
ViaSat-1
|
ViaSat-1 est un satellite de télécommunications à haut débit appartenant à ViaSat Inc. et à Télésat Canada. Lancé le 19 octobre 2011 à bord d'une fusée Proton, il détient le record Guinness du satellite de télécommunications de la plus grande capacité au monde avec une capacité totale de plus de 140 Gbit/s, soit plus que tous les satellites couvrant l'Amérique du Nord réunis, au moment de son lancement. ViaSat-1 est capable de communications bidirectionnelles avec de petites antennes paraboliques à des vitesses plus élevées et à un coût par bit inférieur à celui de tout satellite auparavant. Le satellite sera positionné sur l'île de Man, immatriculée 115. point d'orbite géostationnaire de 1 degré de longitude ouest, avec 72 faisceaux ponctuels en bande Ka ; 63 sur les États-Unis (États de l'Est et de l'Ouest, Alaska et Hawaï) et neuf sur le Canada. Les faisceaux canadiens appartiennent à l'exploitant de satellites Télésat et seront utilisés pour le service à large bande Xplornet destiné aux consommateurs des régions rurales du Canada. Les faisceaux américains fourniront un accès Internet rapide appelé Exede, le service Internet par satellite de ViaSat. ViaSat-1 fait partie d'une nouvelle architecture de système satellitaire créée par ViaSat Inc. L'objectif est de créer une meilleure expérience utilisateur du haut débit par satellite, en rendant pour la première fois le satellite compétitif par rapport aux alternatives DSL et haut débit sans fil.
|
West_Virginia
|
La Virginie-Occidentale -LSB- wɛ st_v ərˈdʒɪnjə -RSB- est un État situé dans la région des Appalaches au sud des États-Unis. Il est bordé par la Virginie au sud-est, le Kentucky au sud-ouest, l'Ohio au nord-ouest, la Pennsylvanie au nord (et, légèrement, à l'est) et le Maryland au nord-est. La Virginie-Occidentale est la 9e plus petite en superficie, se classe au 38e rang en termes de population et a le deuxième revenu par ménage le plus bas des 50 États-Unis. La capitale et la plus grande ville est Charleston. La Virginie-Occidentale est devenue un État à la suite des conventions de Wheeling de 1861, au cours desquelles les délégués de certains comtés unionistes du nord-ouest de la Virginie ont décidé de se séparer de la Virginie pendant la guerre de Sécession, bien qu'ils aient inclus de nombreux comtés sécessionnistes dans le nouvel État. La Virginie-Occidentale a été admise dans l'Union le 20 juin 1863 et était un État frontalier clé de la guerre de Sécession. La Virginie-Occidentale a été le seul État à se séparer d'un État confédéré, le premier à se séparer de tout État depuis que le Maine s'est séparé du Massachusetts, et a été l'un des deux États formés pendant la guerre civile américaine (l'autre étant le Nevada). Le Bureau du recensement et l'Association des géographes américains classent la Virginie-Occidentale comme faisant partie du sud des États-Unis. Le nord de l'enclave s'étend à côté de la Pennsylvanie et de l'Ohio, avec les villes de Virginie-Occidentale de Wheeling et Weirton juste de l'autre côté de la frontière de la région métropolitaine de Pittsburgh, tandis que Bluefield est à moins de 70 miles de la Caroline du Nord. Huntington dans le sud-ouest est proche des États de l'Ohio et du Kentucky, tandis que Martinsburg et Harpers Ferry dans la région de l'Eastern Panhandle sont considérés comme faisant partie de la région métropolitaine de Washington, entre les États du Maryland et de la Virginie. La position unique de la Virginie-Occidentale signifie qu'elle est souvent incluse dans plusieurs régions géographiques, notamment le centre de l'Atlantique, le sud des hautes terres et le sud-est des États-Unis. C'est le seul État qui se trouve entièrement dans la zone desservie par la Commission régionale des Appalaches ; la région est communément définie comme « Appalaches ». L'État est connu pour ses montagnes et ses collines, ses industries forestières et minières de charbon historiquement importantes, ainsi que son histoire politique et syndicale. C'est l'une des zones les plus densément karstiques au monde, ce qui en fait une zone de choix pour la spéléologie récréative et la recherche scientifique. Les terres karstiques contribuent à une grande partie des eaux froides de la truite de l'État. Il est également connu pour un large éventail de possibilités de loisirs de plein air, notamment le ski, le rafting en eau vive, la pêche, la randonnée, la randonnée, le VTT, l'escalade et la chasse.
|
Weight_loss
|
La perte de poids, dans le contexte de la médecine, de la santé ou de la forme physique, fait référence à une réduction de la masse corporelle totale, due à une perte moyenne de liquide, de graisse corporelle ou de tissu adipeux ou de masse maigre, à savoir les dépôts minéraux osseux, les muscles, les tendons et autres tissus conjonctifs. La perte de poids peut survenir involontairement en raison de la malnutrition ou d'une maladie sous-jacente, ou résulter d'un effort conscient pour améliorer un état de surpoids ou d'obésité réel ou perçu. Une perte de poids « inexpliquée » qui n'est pas causée par une réduction de l'apport calorique ou de l'exercice est appelée cachexie et peut être un symptôme d'une condition médicale grave. La perte de poids intentionnelle est communément appelée amincissement.
|
Winds_of_Provence
|
Les vents de Provence, la région du sud-est de la France le long de la Méditerranée des Alpes à l'embouchure du Rhône, sont une caractéristique importante de la vie provençale, et chacun a un nom local traditionnel, en langue provençale. Les vents provençaux les plus célèbres sont : Le Mistral, un vent froid et sec du nord ou du nord-ouest, qui souffle à travers la vallée du Rhône jusqu'à la Méditerranée, et peut atteindre des vitesses de quatre-vingt-dix kilomètres à l'heure. Le Levant, un vent d'est très humide, qui apporte de l'humidité de la Méditerranée orientale. La Tramontane, un vent du nord fort, froid et sec, semblable au Mistral, qui souffle des montagnes du Massif central vers la Méditerranée à l'ouest du Rhône. Le Marin, un vent du sud fort, humide et nuageux, qui souffle du golfe du Lion. Le Sirocco, un vent du sud-est venant du désert du Sahara en Afrique, peut atteindre la force d'un ouragan et apporte soit de la poussière rougeâtre, soit de fortes pluies. Les noms provençaux des vents sont très similaires aux noms de la langue catalane : Tramontane (Pr. ) = Tramuntana (catalan) Levant (Pr. ) = Llevant (catalan) Mistral (Pr. ) = Mestral (catalan)
|
Winter_1985_cold_wave
|
La vague de froid de l'hiver 1985 était un événement météorologique, résultat du déplacement du vortex polaire plus au sud que ce qui est normalement observé. Empêché de se déplacer normalement, l'air polaire du nord a pénétré dans presque toutes les sections de la moitié est des États-Unis et du Canada, fracassant des records dans un certain nombre de régions. L'événement a été précédé d'un temps exceptionnellement chaud dans l'est des États-Unis en décembre 1984, ce qui suggère qu'il y a eu une accumulation d'air froid qui a été soudainement libérée de l'Arctique, un événement météorologique connu sous le nom d'anticyclone polaire mobile, un processus météorologique identifié par le professeur Marcel Leroux.
|
Weather_map
|
Une carte météorologique affiche diverses caractéristiques météorologiques dans une zone particulière à un moment donné et comporte divers symboles qui ont tous des significations spécifiques. Ces cartes sont utilisées depuis le milieu du 19e siècle et sont utilisées à des fins de recherche et de prévisions météorologiques. Les cartes utilisant des isothermes montrent les gradients de température, ce qui peut aider à localiser les fronts météorologiques. Les cartes Isotach, analysant les lignes de vitesse du vent égale, sur une surface de pression constante de 300 mb ou 250 mb montrent où se trouve le courant-jet. L'utilisation de courbes de pression constante au niveau de 700 et 500 hPa peut indiquer le mouvement d'un cyclone tropical. Les lignes de courant bidimensionnelles basées sur la vitesse du vent à différents niveaux montrent les zones de convergence et de divergence dans le champ de vent, ce qui est utile pour déterminer l'emplacement des entités dans la configuration du vent. Un type populaire de carte météorologique de surface est l'analyse météorologique de surface, qui trace les isobares pour représenter les zones de haute et de basse pression. Les codes des nuages sont traduits en symboles et tracés sur ces cartes, avec d'autres données météorologiques qui sont incluses dans des rapports synoptiques envoyés par des observateurs professionnels.
|
World_Energy_Outlook
|
Le rapport annuel World Energy Outlook est la publication phare de l'Agence internationale de l'énergie, largement reconnue comme la source la plus fiable pour les projections et les analyses énergétiques mondiales. Il s'agit de la principale source de projections à moyen et long terme du marché de l'énergie, de statistiques détaillées, d'analyses et de conseils à l'intention des gouvernements et du secteur de l'énergie. Il est produit par le Bureau de l'économiste en chef, actuellement sous la direction de M. Fatih Birol. À l'aide d'un scénario de référence basé sur l'absence de changement des politiques actuelles, il permet aux décideurs politiques d'évaluer leur trajectoire actuelle. Les PEM ont également élaboré un scénario alternatif qui place les systèmes énergétiques mondiaux sur une trajectoire de stabilisation des émissions de gaz à effet de serre en ligne avec la limitation de l'augmentation de la température à 2°C.
|
Wind_power_in_Pennsylvania
|
Il y a plus de vingt projets d'énergie éolienne en exploitation dans le Commonwealth de Pennsylvanie. Les régions éoliennes les plus productives se trouvent généralement sur des terrains montagneux ou côtiers. La partie nord de la chaîne des Appalaches, qui comprend la majeure partie du sud-ouest de la Pennsylvanie, est l'une des régions ayant le plus fort potentiel d'énergie éolienne dans l'est des États-Unis. Les crêtes montagneuses du centre et du nord-est de la Pennsylvanie, y compris les Poconos dans la partie orientale de l'État, offrent certaines des meilleures ressources éoliennes de la région. Si tout le potentiel éolien de la Pennsylvanie était développé avec des éoliennes à grande échelle, l'énergie produite chaque année serait suffisante pour en fournir 6. 4 % de la consommation actuelle d'électricité de l'État. En 2006, la législature de Pennsylvanie a statué que les éoliennes et les équipements connexes ne pouvaient pas être inclus dans les évaluations de l'impôt foncier. Au lieu de cela, les sites des installations éoliennes sont évalués en fonction de leur valeur de capitalisation du revenu. En 2007, le comté de Montgomery est devenu le premier comté éolien du pays, avec un engagement de deux ans à acheter 100 % de son électricité à partir d'une combinaison d'énergie éolienne et de crédits d'énergie renouvelable dérivés de l'énergie éolienne. En 2009, l'Agence de protection de l'environnement des États-Unis a honoré Swarthmore, en Pennsylvanie, en tant que communauté d'énergie verte - la seule dans l'est des États-Unis - pour son engagement à acheter de l'énergie propre générée par des éoliennes dans la région montagneuse de l'ouest de la Pennsylvanie. En 2012, une coalition de développeurs, de propriétaires, d'exploitants, de leurs partisans et de fournisseurs de parcs éoliens s'est réunie pour former ChoosePAWind. L'objectif de cette coalition est d'éduquer les Pennsylvaniens sur les avantages environnementaux et économiques de l'approvisionnement en énergie à partir de parcs éoliens locaux. De nombreux petits parcs éoliens en Pennsylvanie sont exploités par NextEra Energy Resources, basé en Floride.
|
Water_resources
|
Les ressources en eau sont des sources d'eau potentiellement utiles. Les utilisations de l'eau comprennent les activités agricoles, industrielles, domestiques, récréatives et environnementales. La majorité des utilisations humaines nécessitent de l'eau douce. 97 % de l'eau sur Terre est de l'eau salée et seulement 3 % de l'eau douce ; Un peu plus des deux tiers de cette population sont gelées dans les glaciers et les calottes glaciaires polaires. Le reste de l'eau douce non gelée se trouve principalement sous forme d'eau souterraine, avec seulement une petite fraction présente au-dessus du sol ou dans l'air. L'eau douce est une ressource renouvelable, mais l'approvisionnement mondial en eau souterraine diminue régulièrement, l'épuisement se produisant principalement en Asie, en Amérique du Sud et en Amérique du Nord, bien que l'on ne sache pas encore quelle quantité de renouvellement naturel équilibre cette utilisation et si les écosystèmes sont menacés. Le cadre d'allocation des ressources en eau aux utilisateurs de l'eau (lorsqu'un tel cadre existe) est connu sous le nom de droits sur l'eau.
|
World_Climate_Change_Conference,_Moscow
|
La Conférence mondiale sur les changements climatiques s'est tenue à Moscou du 29 septembre au 3 octobre 2003. L'initiative de convoquer la Conférence a été prise par Vladimir Poutine, Président de la Fédération de Russie. La Conférence a été convoquée par la Fédération de Russie et soutenue par des organismes internationaux, dont les Nations Unies. Il ne faut pas la confondre avec les conférences mondiales sur le climat. Le rapport de synthèse de la conférence, qui a été approuvé à la séance de clôture de la Conférence, le 3 octobre 2003, a approuvé le consensus représenté par le TRE du GIEC : le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) a fourni la base d'une grande partie de notre compréhension actuelle des connaissances dans ce domaine dans son troisième rapport d'évaluation (TRE) de 2001. Une grande majorité de la communauté scientifique internationale a accepté ses conclusions générales selon lesquelles le changement climatique est en cours, est principalement le résultat des émissions humaines de gaz à effet de serre et d'aérosols, et que cela représente une menace pour les personnes et les écosystèmes. Certaines interprétations scientifiques divergentes ont été avancées et discutées lors de la Conférence. Andreas Fischlin, participant à la conférence et auteur du GIEC, a critiqué la conférence en déclarant : « Cependant, en ce qui concerne le contenu scientifique de la conférence, nous avons également dû faire face à des difficultés considérables. Malheureusement, il n'y avait pas seulement d'éminents scientifiques présents, mais aussi des collègues qui ont utilisé la conférence pour exprimer des opinions personnelles et politiques basées sur un jugement de valeur plutôt que sur des faits scientifiques et des connaissances scientifiques rigoureusement dérivées et une compréhension approfondie. C'est pourquoi, je crois, les principes d'une bonne conduite scientifique ont été violés trop souvent et parfois, je crains de devoir le dire, même systématiquement. Cela contraste fortement avec les principes défendus par le GIEC (Groupe d'experts intergouvernemental sur l'évolution du climat), qui ne permettent d'évaluer les connaissances actuelles que sur la base de la meilleure littérature scientifique disponible et évaluée par des pairs et qui ne permettent aucun jugement de valeur non scientifique, et encore moins de recommandations politiques.
|
Windcatcher
|
Une tour à vent (capteur de vent) (بادگیر bâdgir : bâd « vent » + gir « attrape-vent ») est un élément architectural traditionnel persan pour créer une ventilation naturelle dans les bâtiments. Les attrape-vent sont disponibles en différents modèles : unidirectionnels, bidirectionnels et multidirectionnels. Les appareils étaient utilisés dans l'architecture égyptienne antique. Les attrape-vent restent présents dans de nombreux pays et peuvent être trouvés dans l'architecture traditionnelle d'influence persane dans tout le Moyen-Orient, y compris dans les États arabes du golfe Persique (principalement Bahreïn et les Émirats arabes unis), au Pakistan et en Afghanistan.
|
Wind_power_by_country
|
À la fin de l'année 2016, la capacité totale cumulée de production d'électricité installée à partir de l'énergie éolienne dans le monde s'élevait à 486 790 MW, soit une augmentation de 12 MW. 5 % par rapport à l'année précédente. les installations ont augmenté de 54 642 MW, 63 330 MW, 51, 675 MW et 36 023 MW en 2016, 2015, 2014 et 2013 respectivement. Depuis 2010, plus de la moitié de toute l'énergie éolienne a été ajoutée en dehors des marchés traditionnels d'Europe et d'Amérique du Nord, principalement en raison de l'essor continu en Chine et en Inde. À la fin de l'année 2015, la Chine disposait d'une puissance éolienne installée de 145 GW. En 2015, la Chine a installé près de la moitié de la capacité éolienne mondiale supplémentaire. Plusieurs pays ont atteint des niveaux relativement élevés de pénétration de l'énergie éolienne, comme 39 % de la production d'électricité stationnaire au Danemark, 18 % au Portugal, 16 % en Espagne, 14 % en Irlande et 9 % en Allemagne en 2010. En 2011, 83 pays dans le monde utilisaient l'énergie éolienne à des fins commerciales. Fin 2014, la part de l'énergie éolienne dans la consommation mondiale d'électricité s'élevait à 3. 1 %.
|
White_Sea
|
La mer Blanche (Белое море, Beloye more ; Carélie et Vienanmeri, litt. Mer de Dvina ; Сэрако ямʼ, Serako yam) est un bras de mer sud de la mer de Barents situé sur la côte nord-ouest de la Russie. Elle est entourée par la Carélie à l'ouest, la péninsule de Kola au nord et la péninsule de Kanin au nord-est. L'ensemble de la mer Blanche est sous souveraineté russe et considéré comme faisant partie des eaux intérieures de la Russie. Sur le plan administratif, elle est divisée entre les oblasts d'Arkhangelsk et de Mourmansk et la République de Carélie. Le principal port d'Arkhangelsk est situé sur la mer Blanche. Pendant une grande partie de l'histoire de la Russie, ce fut le principal centre du commerce maritime international de la Russie, mené par les soi-disant Pomors (« colons côtiers ») de Kholmogory. À l'époque moderne, elle est devenue une importante base navale et sous-marine soviétique. Le canal de la mer Blanche-Baltique relie la mer Blanche à la mer Baltique. La mer Blanche est l'une des quatre mers nommées en anglais (et dans d'autres langues comme le russe) d'après des termes de couleur courants - les autres étant la mer Noire, la mer Rouge et la mer Jaune.
|
Western_United_States
|
L'ouest des États-Unis, communément appelé l'Ouest américain, le Far West ou simplement l'Ouest, fait traditionnellement référence à la région comprenant les États les plus à l'ouest des États-Unis. Parce que la colonisation européenne aux États-Unis s'est étendue vers l'ouest après sa fondation, la signification de l'Ouest a évolué au fil du temps. Avant 1800 environ, la crête des Appalaches était considérée comme la frontière occidentale. Depuis lors, la frontière s'est généralement déplacée vers l'ouest et finalement les terres à l'ouest du fleuve Mississippi ont été appelées l'Ouest. Bien qu'il n'existe aucun consensus, même parmi les experts, pour la définition de l'Ouest en tant que région, la définition des 13 États les plus à l'ouest par le Bureau du recensement des États-Unis comprend les montagnes Rocheuses et le Grand Bassin jusqu'à la côte ouest, ainsi que les États périphériques d'Hawaï et de l'Alaska. L'Ouest contient plusieurs biomes majeurs. Il est connu pour ses plateaux et ses plaines arides à semi-arides, en particulier dans le sud-ouest américain - des montagnes boisées, y compris les principales chaînes de la Sierra Nevada américaine et des montagnes Rocheuses - l'immense littoral côtier de la côte américaine du Pacifique - et les forêts tropicales du nord-ouest du Pacifique.
|
West_Java
|
Java occidental (Jawa Barat, abrégé en « Jabar », Jawa Kulon) est une province d'Indonésie. Il est situé dans la partie occidentale de l'île de Java et sa capitale et le plus grand centre urbain est Bandung, bien qu'une grande partie de sa population dans le coin nord-ouest de la province vive dans des zones suburbaines de la zone urbaine encore plus grande de Jakarta, même si cette ville se trouve elle-même en dehors de la province administrative. La province compte 46 habitants. 3 millions d'habitants (en 2014) et c'est la plus peuplée et la plus densément peuplée des provinces indonésiennes. Les zones centrales de Bogor, une ville de Java occidental, ont l'une des plus fortes densités de population au monde, tandis que Bekasi et Depok sont respectivement les 7e et 10e banlieues les plus peuplées du monde (Tangerang dans la province voisine de Banten est la 9e) ; en 2014, Bekasi comptait 2 510 951 habitants et Depok 1 869 681 habitants. Toutes ces villes sont suburbaines de Jakarta.
|
Woolly_mammoth
|
Le mammouth laineux (Mammuthus primigenius) est une espèce de mammouth qui a vécu à l'époque du Pléistocène, et était l'un des derniers d'une lignée d'espèces de mammouths, commençant par Mammuthus subplanifrons au début du Pliocène. Le mammouth laineux a divergé du mammouth des steppes il y a environ 400 000 ans en Asie de l'Est. Son plus proche parent existant est l'éléphant d'Asie. L'apparence et le comportement de cette espèce sont parmi les mieux étudiés de tous les animaux préhistoriques en raison de la découverte de carcasses congelées en Sibérie et en Alaska, ainsi que de squelettes, de dents, de contenu stomacal, de fumier et de représentations d'après nature dans des peintures rupestres préhistoriques. Les restes de mammouths étaient connus depuis longtemps en Asie avant d'être connus des Européens au 17ème siècle. L'origine de ces restes a longtemps fait l'objet de débats et a souvent été expliquée comme étant les restes de créatures légendaires. Le mammouth a été identifié comme une espèce éteinte d'éléphant par Georges Cuvier en 1796. Le mammouth laineux avait à peu près la même taille que les éléphants d'Afrique modernes. Les mâles atteignaient la hauteur des épaules entre 2. 7 et pesait jusqu'à 6 tonnes. Les femelles ont atteint 2. 6 - à hauteur d'épaule et pesait jusqu'à 4 tonnes. Un veau nouveau-né pesait environ 90 kg. Le mammouth laineux était bien adapté à l'environnement froid de la dernière période glaciaire. Il était recouvert de fourrure, avec une couverture extérieure de longs poils de garde et un sous-poil plus court. La couleur du pelage variait du foncé au clair. Les oreilles et la queue étaient courtes pour minimiser les engelures et les pertes de chaleur. Il avait de longues défenses incurvées et quatre molaires, qui ont été remplacées six fois au cours de la vie d'un individu. Son comportement était similaire à celui des éléphants modernes, et il utilisait ses défenses et sa trompe pour manipuler des objets, se battre et chercher de la nourriture. Le régime alimentaire du mammouth laineux se composait principalement d'herbe et de carex. Les individus pourraient probablement atteindre l'âge de 60 ans. Son habitat était la steppe gigantesque, qui s'étendait à travers le nord de l'Eurasie et l'Amérique du Nord. Le mammouth laineux a coexisté avec les premiers humains, qui utilisaient ses os et ses défenses pour fabriquer des œuvres d'art, des outils et des habitations, et l'espèce était également chassée pour se nourrir. Il a disparu de son aire de répartition continentale à la fin du Pléistocène, il y a 10 000 ans, très probablement à cause du changement climatique et du rétrécissement de son habitat qui en a résulté, de la chasse par les humains ou d'une combinaison des deux. Des populations isolées ont survécu sur l'île Saint-Paul jusqu'à il y a 5 600 ans et sur l'île Wrangel jusqu'à il y a 4 000 ans. Après son extinction, les humains ont continué à utiliser son ivoire comme matière première, une tradition qui se poursuit aujourd'hui. Il a été proposé que l'espèce puisse être recréée par clonage, mais cette méthode est encore irréalisable en raison de l'état dégradé du matériel génétique restant.
|
Water_purification
|
La purification de l'eau est le processus d'élimination des produits chimiques indésirables, des contaminants biologiques, des solides en suspension et des gaz de l'eau. L'objectif est de produire de l'eau adaptée à un usage spécifique. La plupart de l'eau est désinfectée pour la consommation humaine (eau potable), mais la purification de l'eau peut également être conçue à diverses autres fins, notamment pour répondre aux exigences des applications médicales, pharmacologiques, chimiques et industrielles. Les méthodes utilisées comprennent des processus physiques tels que la filtration, la sédimentation et la distillation ; des processus biologiques tels que des filtres à sable lents ou du charbon biologiquement actif ; les processus chimiques tels que la floculation et la chloration et l'utilisation de rayonnements électromagnétiques tels que la lumière ultraviolette. La purification de l'eau peut réduire la concentration de particules, y compris les particules en suspension, les parasites, les bactéries, les algues, les virus, les champignons, ainsi que la réduction de la quantité d'une gamme de matières dissoutes et particulaires dérivées des surfaces provenant du ruissellement dû à la pluie. Les normes de qualité de l'eau potable sont généralement établies par les gouvernements ou par des normes internationales. Ces normes comprennent généralement des concentrations minimales et maximales de contaminants, selon l'utilisation prévue de l'eau. L'inspection visuelle ne permet pas de déterminer si l'eau est de qualité appropriée. Des procédures simples telles que l'ébullition ou l'utilisation d'un filtre à charbon actif ménager ne suffisent pas pour traiter tous les contaminants possibles qui peuvent être présents dans l'eau d'une source inconnue. Même l'eau de source naturelle - considérée comme sûre à toutes fins pratiques au 19ème siècle - doit maintenant être testée avant de déterminer quel type de traitement, le cas échéant, est nécessaire. Les analyses chimiques et microbiologiques, bien que coûteuses, sont le seul moyen d'obtenir les informations nécessaires pour décider de la méthode de purification appropriée. Selon un rapport de 2007 de l'Organisation mondiale de la santé (OMS), 1. 1 milliard de personnes n'ont pas accès à un approvisionnement en eau potable amélioré, 88 % des 4 milliards de cas annuels de maladies diarrhéiques sont attribués à l'eau insalubre et à un assainissement et une hygiène inadéquats, tandis que 1. 8 millions de personnes meurent chaque année de maladies diarrhéiques. L'OMS estime que 94 % de ces cas de diarrhée sont évitables en raison de modifications de l'environnement, y compris l'accès à l'eau potable. Des techniques simples pour traiter l'eau à la maison, telles que la chloration, les filtres et la désinfection solaire, et la stocker dans des récipients sûrs pourraient sauver un grand nombre de vies chaque année. La réduction du nombre de décès dus aux maladies d'origine hydrique est un objectif majeur de santé publique dans les pays en développement.
|
Weather_Research_and_Forecasting_Model
|
Le modèle de recherche et de prévision météorologiques (WRF) -LSB- ˈwɔrf -RSB- est un système de prévision numérique du temps (NWP) conçu pour répondre à la fois aux besoins de recherche atmosphérique et de prévision opérationnelle. La NWP fait référence à la simulation et à la prédiction de l'atmosphère à l'aide d'un modèle informatique, et WRF est un ensemble de logiciels pour cela. WRF dispose de deux cœurs dynamiques (ou solveurs), d'un système d'assimilation de données et d'une architecture logicielle permettant le calcul parallèle et l'extensibilité du système. Le modèle sert un large éventail d'applications météorologiques à des échelles allant du mètre à des milliers de kilomètres. L'effort de développement du WRF a commencé dans la dernière partie des années 1990 et était un partenariat de collaboration principalement entre le National Center for Atmospheric Research (NCAR), la National Oceanic and Atmospheric Administration (représentée par les National Centers for Environmental Prediction (NCEP) et le (alors) Forecast Systems Laboratory (FSL) ), l'Air Force Weather Agency (AFWA), le Naval Research Laboratory (NRL), l'Université de l'Oklahoma (OU) et la Federal Aviation Administration (FAA). La majeure partie du travail sur le modèle a été effectuée ou soutenue par le NCAR, la NOAA et l'AFWA. WRF permet aux chercheurs de produire des simulations reflétant soit des données réelles (observations, analyses), soit des conditions atmosphériques idéalisées. WRF fournit des prévisions opérationnelles une plate-forme flexible et robuste, tout en offrant des avancées en physique, en numérique et en assimilation de données apportées par les nombreux développeurs de la communauté des chercheurs. WRF est actuellement utilisé de manière opérationnelle au NCEP et dans d'autres centres de prévision à l'échelle internationale. WRF s'est développé pour avoir une grande communauté mondiale d'utilisateurs (plus de 30 000 utilisateurs enregistrés dans plus de 150 pays), et des ateliers et des tutoriels sont organisés chaque année au NCAR. WRF est largement utilisé pour la recherche et les prévisions en temps réel dans le monde entier. WRF propose deux solveurs dynamiques pour son calcul des équations de gouvernance atmosphérique, et les variantes du modèle sont connues sous le nom de WRF-ARW (Advanced Research WRF) et WRF-NMM (Nonhydrostatic Mesoscale Model). Le WRF de recherche avancée (ARW) est soutenu à la communauté par la division de météorologie à méso-échelle et à micro-échelle du NCAR. La variante du solveur WRF-NMM était basée sur le modèle Eta, et plus tard sur le modèle méso-échelle non hydrostatique, développé au NCEP. Le WRF-NMM (NMM) est soutenu à la communauté par le Developmental Testbed Center (DTC). Le WRF sert de base au modèle Rapid Refresh, un modèle de prévision opérationnelle exécuté régulièrement par le NCEP. Une version de WRF-NMM adaptée à la prévision des ouragans, HWRF (Hurricane Weather Research and Forecasting), est devenue opérationnelle en 2007. En 2009, un WRF optimisé pour les pôles a été publié par le Byrd Polar Research Center de l'Université d'État de l'Ohio.
|
Wood_fuel
|
Le bois de chauffage (ou bois de chauffage) est un combustible, tel que le bois de chauffage, le charbon de bois, les copeaux, les feuilles, les granulés et la sciure de bois. La forme particulière utilisée dépend de facteurs tels que la source, la quantité, la qualité et l'application. Dans de nombreuses régions, le bois est la forme de combustible la plus facilement disponible, ne nécessitant aucun outil dans le cas du ramassage du bois mort, ou peu d'outils, bien que, comme dans toute industrie, des outils spécialisés, tels que les débardeurs et les fendeuses à bois hydrauliques, aient été développés pour mécaniser la production. Les déchets de scierie et les sous-produits de l'industrie de la construction comprennent également diverses formes de résidus de bois d'œuvre. La découverte de la façon de faire du feu dans le but de brûler du bois est considérée comme l'une des avancées les plus importantes de l'humanité. L'utilisation du bois comme source de combustible pour le chauffage est beaucoup plus ancienne que la civilisation et on suppose qu'elle a été utilisée par les Néandertaliens. Aujourd'hui, la combustion du bois est la plus grande utilisation d'énergie dérivée d'une biomasse à combustible solide. Le bois de chauffage peut être utilisé pour la cuisine et le chauffage, et occasionnellement pour alimenter les machines à vapeur et les turbines à vapeur qui produisent de l'électricité. Le bois peut être utilisé à l'intérieur dans une fournaise, un poêle ou un foyer, ou à l'extérieur dans une fournaise, un feu de camp ou un feu de joie. Dans les structures permanentes et dans les grottes, des foyers étaient construits ou établis - des surfaces de pierre ou d'un autre matériau incombustible sur lesquelles un feu pouvait être construit. La fumée s'échappait par un trou de fumée dans le toit. Contrairement aux civilisations des régions relativement arides (comme la Mésopotamie et l'Égypte), les Grecs, les Romains, les Celtes, les Bretons et les Gaulois avaient tous accès à des forêts propices à l'utilisation comme combustible. Au fil des siècles, il y a eu une déforestation partielle des forêts climaciques et l'évolution du reste pour se regrouper avec des forêts standard comme principale source de bois de chauffage. Ces forêts impliquaient un cycle continu de nouvelles tiges récoltées sur d'anciennes souches, sur des rotations entre sept et trente ans. L'un des premiers livres imprimés sur la gestion des forêts, en anglais, est « Sylva, or a discourse on forest trees » (1664) de John Evelyn, qui conseille les propriétaires fonciers sur la bonne gestion des domaines forestiers. H. L. Edlin, dans « Woodland Crafts in Britain », 1949, décrit les techniques extraordinaires employées et la gamme de produits du bois qui ont été produits à partir de ces forêts gérées depuis l'époque pré-romaine. Et tout au long de cette période, la forme préférée de bois de chauffage était les branches de tiges de taillis coupées regroupées en fagots. À la fin de la Seconde Guerre mondiale, des tiges plus grandes, courbées ou déformées, qui n'étaient d'aucune autre utilité pour les artisans des bois, ont été converties. Depuis lors, une grande partie de ces forêts a été convertie à l'agriculture à grande échelle. La demande totale de combustible a considérablement augmenté avec la révolution industrielle, mais la majeure partie de cette demande accrue a été satisfaite par la nouvelle source de combustible qu'est le charbon, qui était plus compacte et plus adaptée à l'échelle plus grande des nouvelles industries. Pendant la période Edo du Japon, le bois a été utilisé à de nombreuses fins, et la consommation de bois a conduit le Japon à développer une politique de gestion forestière à cette époque. La demande de ressources en bois a augmenté non seulement pour le combustible, mais aussi pour la construction de navires et de bâtiments, et par conséquent la déforestation a été généralisée. En conséquence, des incendies de forêt se sont produits, ainsi que des inondations et l'érosion des sols. Vers 1666, le shogun a pour politique de réduire l'exploitation forestière et d'augmenter la plantation d'arbres. Cette politique décrète que seul le shogun, ou un daimyō, peut autoriser l'utilisation du bois. Au XVIIIe siècle, le Japon avait développé des connaissances scientifiques détaillées sur la sylviculture et la foresterie de plantation.
|
Westerlies
|
Les vents d'ouest, anti-alizés, ou vents d'ouest dominants, sont des vents dominants de l'ouest vers l'est dans les latitudes moyennes entre 30 et 60 degrés de latitude. Ils proviennent des zones de haute pression des latitudes des chevaux et tendent vers les pôles et dirigent les cyclones extratropicaux de cette manière générale. Les cyclones tropicaux qui traversent l'axe de la dorsale subtropicale dans les vents d'ouest se recourbent en raison de l'augmentation du flux d'ouest. Les vents soufflent principalement du sud-ouest dans l'hémisphère nord et du nord-ouest dans l'hémisphère sud. Les vents d'ouest sont les plus forts dans l'hémisphère d'hiver et aux moments où la pression est plus faible au-dessus des pôles, tandis qu'ils sont les plus faibles dans l'hémisphère d'été et lorsque les pressions sont plus élevées au-dessus des pôles. Les vents d'ouest sont particulièrement forts, en particulier dans l'hémisphère sud, dans les zones où les terres sont absentes, car les terres amplifient le modèle d'écoulement, rendant le courant plus orienté nord-sud, ralentissant les vents d'ouest. Les vents d'ouest les plus forts des latitudes moyennes peuvent survenir dans les quarantièmes rugissants, entre 40 et 50 degrés de latitude. Les vents d'ouest jouent un rôle important dans le transport des eaux chaudes et équatoriales et des vents vers les côtes occidentales des continents, en particulier dans l'hémisphère sud en raison de sa vaste étendue océanique.
|
Wind_power_in_the_United_States
|
Aux États-Unis, l'énergie éolienne est une branche de l'industrie de l'énergie qui s'est rapidement développée au cours des dernières années. Pour l'année civile 2016, l'énergie éolienne aux États-Unis s'élevait à 226. 5 térawattheures, soit 5. 55 % de l'énergie électrique produite. En janvier 2017, la capacité nominale de production d'énergie éolienne aux États-Unis était de 82 183 mégawatts (MW). Cette capacité n'est dépassée que par la Chine et l'Union européenne. Jusqu'à présent, la plus forte croissance de la capacité éolienne a été enregistrée en 2012, avec 11 895 MW d'énergie éolienne installés, soit 26 MW. 5 % de la nouvelle capacité d'alimentation. En 2016, le Nebraska est devenu le dix-huitième État à avoir installé plus de 1 000 MW de capacité éolienne. Le Texas, avec une capacité de plus de 20 000 MW, avait la plus grande capacité éolienne installée de tous les États américains à la fin de 2016. Le Texas avait également plus de projets en construction que tout autre État actuellement installé. L'État générant le pourcentage le plus élevé d'énergie à partir de l'énergie éolienne est l'Iowa. Le Dakota du Nord a la production éolienne par habitant la plus élevée. L'Alta Wind Energy Center en Californie est le plus grand parc éolien des États-Unis avec une capacité de 1548 MW. GE Energy est le plus grand fabricant national d'éoliennes.
|
Wilson_Doctrine
|
La doctrine Wilson est une convention du Royaume-Uni qui interdit aux services de police et de renseignement d'intercepter les téléphones des membres de la Chambre des communes et de la Chambre des lords. Elle a été introduite en 1966 et nommée en l'honneur de Harold Wilson, le Premier ministre travailliste qui a établi la règle. Depuis sa création, le développement de nouvelles formes de communication, telles que le téléphone portable et le courrier électronique, l'élection des membres du Parlement européen et les nouvelles législatures décentralisées ont conduit à l'extension de la doctrine. En juillet 2015, il est apparu que l'application de la doctrine aux membres du Parlement européen et aux législatures décentralisées avait pris fin et, en octobre 2015, le Tribunal des pouvoirs d'enquête a statué que la doctrine n'avait pas de valeur juridique. En novembre 2015, le Premier ministre a fait une déclaration précisant comment le « Gouvernement continue d'appliquer la doctrine au XXIe siècle ». Le projet de loi sur les pouvoirs d'enquête comprend une disposition visant à donner pour la première fois une base légale à la doctrine Wilson.
|
Wind_tunnel
|
Une soufflerie est un outil utilisé dans la recherche aérodynamique pour étudier les effets de l'air se déplaçant devant des objets solides. Une soufflerie se compose d'un passage tubulaire avec l'objet testé monté au milieu. L'air est amené à se déplacer au-delà de l'objet par un puissant système de ventilateur ou d'autres moyens. L'objet d'essai, souvent appelé modèle de soufflerie, est équipé de capteurs appropriés pour mesurer les forces aérodynamiques, la répartition de la pression ou d'autres caractéristiques liées à l'aérodynamique. Les premières souffleries ont été inventées vers la fin du 19ème siècle, aux premiers jours de la recherche aéronautique, lorsque beaucoup ont tenté de développer avec succès des machines volantes plus lourdes que l'air. La soufflerie a été conçue comme un moyen d'inverser le paradigme habituel : au lieu que l'air reste immobile et qu'un objet se déplace à grande vitesse à travers lui, le même effet serait obtenu si l'objet restait immobile et que l'air se déplaçait à grande vitesse au-delà de lui. De cette façon, un observateur stationnaire pourrait étudier l'objet volant en action et mesurer les forces aérodynamiques qui lui sont imposées. Le développement des souffleries a accompagné le développement de l'avion. De grandes souffleries ont été construites pendant la Seconde Guerre mondiale. Les essais en soufflerie étaient considérés comme d'une importance stratégique pendant la guerre froide, au cours de la guerre froide, au développement d'avions et de missiles supersoniques. Plus tard, l'étude en soufflerie a pris tout son sens : les effets du vent sur les structures ou les objets fabriqués par l'homme devaient être étudiés lorsque les bâtiments devenaient suffisamment hauts pour présenter de grandes surfaces au vent, et les forces résultantes devaient être résistées par la structure interne du bâtiment. Il était nécessaire de déterminer ces forces avant que les codes du bâtiment puissent spécifier la résistance requise de ces bâtiments, et de tels tests continuent d'être utilisés pour les bâtiments de grande taille ou inhabituels. Plus tard encore, les essais en soufflerie ont été appliqués aux automobiles, non pas tant pour déterminer les forces aérodynamiques en soi, mais plutôt pour déterminer les moyens de réduire la puissance nécessaire pour déplacer le véhicule sur les routes à une vitesse donnée. Dans ces études, l'interaction entre la route et le véhicule joue un rôle important, et cette interaction doit être prise en compte lors de l'interprétation des résultats des essais. Dans une situation réelle, la chaussée se déplace par rapport au véhicule, mais l'air est stationnaire par rapport à la chaussée, mais dans la soufflerie, l'air se déplace par rapport à la chaussée, tandis que la chaussée est stationnaire par rapport au véhicule d'essai. Certaines souffleries d'essai automobile ont incorporé des courroies mobiles sous le véhicule d'essai dans le but de se rapprocher de l'état réel, et des dispositifs très similaires sont utilisés dans les essais en soufflerie des configurations de décollage et d'atterrissage des avions. Les progrès de la modélisation numérique de la dynamique des fluides (CFD) sur des ordinateurs numériques à grande vitesse ont réduit la demande d'essais en soufflerie. Cependant, les résultats de la CFD ne sont pas encore totalement fiables et les souffleries sont utilisées pour vérifier les prédictions de la CFD.
|
Weather_front
|
Un front météorologique (état de l'atmosphère) est une frontière séparant deux masses d'air de densités différentes, et est la principale cause des phénomènes météorologiques en dehors des tropiques. Dans les analyses météorologiques de surface, les fronts sont représentés à l'aide de triangles et de demi-cercles de différentes couleurs, selon le type de front. Les masses d'air séparées par un front diffèrent généralement par la température et l'humidité. Les fronts froids peuvent présenter d'étroites bandes d'orages et de temps violent, et peuvent à l'occasion être précédés de lignes de grains ou de lignes sèches. Les fronts chauds sont généralement précédés de précipitations stratiformes et de brouillard. Le temps s'éclaircit généralement rapidement après le passage d'un front. Certains fronts ne produisent pas de précipitations et peu de nébulosité, bien qu'il y ait invariablement un changement de vent. Les fronts froids et les fronts occlus se déplacent généralement d'ouest en est, tandis que les fronts chauds se déplacent vers les pôles. En raison de la plus grande densité d'air dans leur sillage, les fronts froids et les occlusions froides se déplacent plus rapidement que les fronts chauds et les occlusions chaudes. Les montagnes et les plans d'eau chauds peuvent ralentir le mouvement des fronts. Lorsqu'un front devient stationnaire et que le contraste de densité à travers la limite frontale disparaît, le front peut dégénérer en une ligne qui sépare les régions de vitesse du vent différente, connue sous le nom de ligne de cisaillement. C'est le plus courant au-dessus de l'océan.
|
Western_Oregon
|
L'ouest de l'Oregon est un terme géographique qui est généralement considéré comme signifiant la partie de l'Oregon située à moins de 120 km de la côte de l'Oregon, sur le côté ouest de la crête de la chaîne des Cascades. Le terme est cependant appliqué de manière quelque peu vague, et est parfois considéré comme excluant les régions du sud-ouest de l'État, qui sont souvent appelées « Southern Oregon ». Dans ce cas, « Western Oregon » ne désigne que les comtés à l'ouest des Cascades et au nord du comté de Lane inclus. L'ouest de l'Oregon, d'une superficie de 120 habitants, est à peu près de la même taille que le Connecticut, le Massachusetts, le Rhode Island, le Vermont et le New Hampshire réunis. Contrairement au climat de l'est de l'Oregon, qui est principalement sec et continental, le climat de l'ouest de l'Oregon est généralement un climat de forêt tropicale humide.
|
Weather_station
|
Une station météorologique est une installation, sur terre ou en mer, dotée d'instruments et d'équipements permettant de mesurer les conditions atmosphériques afin de fournir des informations pour les prévisions météorologiques et pour étudier le temps et le climat. Les mesures prises comprennent la température, la pression atmosphérique, l'humidité, la vitesse et la direction du vent et les quantités de précipitations. Les mesures du vent sont prises avec le moins d'autres obstacles possible, tandis que les mesures de température et d'humidité sont exemptes de rayonnement solaire direct ou d'insolation. Les observations manuelles sont effectuées au moins une fois par jour, tandis que les mesures automatisées sont prises au moins une fois par heure. Les conditions météorologiques en mer sont prises par les navires et les bouées, qui mesurent des quantités météorologiques légèrement différentes telles que la température de surface de la mer (SST), la hauteur des vagues et la période des vagues. Les bouées météorologiques dérivantes sont beaucoup plus nombreuses que leurs versions amarrées.
|
Winds_aloft
|
Les vents en altitude, officiellement connus sous le nom de prévisions de vents et de températures en altitude, (connus sous le nom de « FD » aux États-Unis, mais devenant connus sous le nom de « FB », selon la nomenclature de l'Organisation météorologique mondiale (OMM), sont une prévision de conditions atmosphériques spécifiques en termes de vent et de température à certaines altitudes, généralement mesurées en pieds (ft) au-dessus du niveau moyen de la mer (MSL). Les prévisions sont spécifiquement utilisées à des fins aéronautiques. Les composantes d'une prévision des vents et des températures en altitude sont affichées sous la forme DDss + / - TT : Direction du vent (DD) et vitesse du vent (ss) , affichées sous la forme d'un nombre à 4 chiffres, par exemple 3127, indiquant une direction du vent de 310 degrés nord vrai et une vitesse du vent de 27 nœuds. Notez que la direction du vent est arrondie aux 10 degrés les plus proches et que le zéro arrière est exclu. Température (TT) , affichée sous la forme d'un nombre à deux chiffres +/- +/, indiquant la température en degrés Celsius.
|
Wawona_Tree
|
L'arbre Wawona, également connu sous le nom d'arbre tunnel Wawona, était un célèbre séquoia géant qui se trouvait à Mariposa Grove, dans le parc national de Yosemite, en Californie, aux États-Unis, jusqu'en février 1969. Il avait une hauteur de 227 pieds et un diamètre de 26 pieds à la base. L'origine du mot Wawona n'est pas connue. Une histoire populaire prétend que Wawō 'na était le mot Miwok pour « grand arbre », ou pour « hululement de la chouette », les oiseaux sont considérés comme les séquoias gardiens spirituels.
|
Wind_power
|
L'énergie éolienne est l'utilisation du flux d'air à travers les éoliennes pour alimenter mécaniquement les générateurs d'énergie électrique. L'énergie éolienne, en tant qu'alternative à la combustion de combustibles fossiles, est abondante, renouvelable, largement distribuée, propre, ne produit aucune émission de gaz à effet de serre pendant son fonctionnement, ne consomme pas d'eau et utilise peu de terres. Les effets nets sur l'environnement sont beaucoup moins problématiques que ceux des sources d'énergie non renouvelables. Les parcs éoliens se composent de nombreuses éoliennes individuelles qui sont connectées au réseau de transport d'énergie électrique. L'éolien terrestre est une source d'énergie électrique peu coûteuse, compétitive ou, dans de nombreux endroits, moins chère que les centrales au charbon ou au gaz. L'éolien offshore est plus stable et plus fort que sur terre, et les fermes offshore ont moins d'impact visuel, mais les coûts de construction et de maintenance sont considérablement plus élevés. Les petits parcs éoliens terrestres peuvent injecter de l'énergie dans le réseau ou fournir de l'énergie électrique à des endroits isolés hors réseau. L'énergie éolienne donne une puissance variable, très constante d'une année à l'autre, mais qui varie considérablement sur des échelles de temps plus courtes. Il est donc utilisé en conjonction avec d'autres sources d'énergie électrique pour fournir une alimentation fiable. À mesure que la proportion d'énergie éolienne dans une région augmente, il peut être nécessaire de moderniser le réseau et de réduire sa capacité à supplanter la production conventionnelle. Des techniques de gestion de l'énergie telles que la capacité excédentaire, des turbines réparties géographiquement, des sources de refoulement acheminables, une énergie hydroélectrique suffisante, l'exportation et l'importation d'énergie dans les zones voisines, l'utilisation de stratégies véhicule-réseau ou la réduction de la demande lorsque la production éolienne est faible, peuvent dans de nombreux cas surmonter ces problèmes. De plus, les prévisions météorologiques permettent de préparer le réseau électrique aux variations prévisibles de la production qui se produisent. En 2015, le Danemark produisait 40 % de son électricité à partir du vent, et au moins 83 autres pays dans le monde utilisaient l'énergie éolienne pour alimenter leurs réseaux électriques. En 2014, la capacité éolienne mondiale a augmenté de 16 % pour atteindre 369 553 MW. La production annuelle d'énergie éolienne augmente également rapidement et a atteint environ 4 % de la consommation mondiale d'électricité, 11. 4 % dans l'UE.
|
Weddell_Gyre
|
Le gyre de Weddell est l'un des deux gyres qui existent dans l'océan Austral. Le gyre est formé par les interactions entre le courant circumpolaire antarctique et le plateau continental antarctique. Le gyre est situé dans la mer de Weddell et tourne dans le sens des aiguilles d'une montre. Au sud du courant circumpolaire antarctique (ACC) et s'étendant vers le nord-est à partir de la péninsule antarctique, le gyre est un grand cyclone étendu. Où l'extrémité nord-est, se termine à 30 ° E, qui est marquée par le virage vers le sud de l'ACC. La partie nord du gyre s'étend sur le sud de la mer d'Écosse et s'étend vers le nord jusqu'à l'arc Sandwich du Sud. L'axe du gyre se trouve sur les flancs sud des dorsales sud de l'Écosse, de l'Amérique-Antarctique et du sud-ouest de l'Inde. Dans la partie sud du gyre, le flux de retour vers l'ouest est d'environ 66Sv, tandis que dans le courant de la bordure nord, il y a un flux vers l'est de 61Sv.
|
Water_on_Mars
|
Presque toute l'eau sur Mars existe aujourd'hui sous forme de glace, bien qu'elle existe également en petites quantités sous forme de vapeur dans l'atmosphère et parfois sous forme de saumures liquides de faible volume dans le sol martien peu profond. Le seul endroit où la glace d'eau est visible à la surface est la calotte glaciaire du pôle nord. De la glace d'eau abondante est également présente sous la calotte glaciaire permanente de dioxyde de carbone au pôle sud martien et dans le sous-sol peu profond à des latitudes plus tempérées. Plus de cinq millions de kilomètres cubes de glace ont été identifiés à la surface ou près de la surface de Mars moderne, suffisamment pour couvrir toute la planète jusqu'à une profondeur de 35 mètres. Il est probable que encore plus de glace sera emprisonnée dans les profondeurs du sous-sol. Un peu d'eau liquide peut se produire de manière transitoire à la surface martienne aujourd'hui, mais seulement dans certaines conditions. Il n'existe pas de grandes masses d'eau liquide stagnantes, car la pression atmosphérique à la surface n'est en moyenne que de 600 Pa, soit environ 0. 6 % de la pression moyenne de la mer sur Terre -- et parce que la température moyenne mondiale est beaucoup trop basse (210 K), conduisant soit à une évaporation rapide (sublimation), soit à une congélation rapide. Avant environ 3. Il y a 8 milliards d'années, Mars avait peut-être une atmosphère plus dense et des températures de surface plus élevées, permettant de grandes quantités d'eau liquide à la surface, y compris peut-être un grand océan qui aurait pu couvrir un tiers de la planète. L'eau a également apparemment coulé à la surface pendant de courtes périodes à divers intervalles plus récemment dans l'histoire de Mars. Le 9 décembre 2013, la NASA a signalé que, sur la base des preuves du rover Curiosity étudiant Aeolis Palus, le cratère Gale contenait un ancien lac d'eau douce qui aurait pu être un environnement hospitalier pour la vie microbienne. De nombreuses sources de preuves indiquent que l'eau est abondante sur Mars et qu'elle a joué un rôle important dans l'histoire géologique de la planète. L'inventaire actuel de l'eau sur Mars peut être estimé à partir d'images de sondes spatiales, de techniques de télédétection (mesures spectroscopiques, radar, etc.) et d'études de surface à partir d'atterrisseurs et de rovers. Les preuves géologiques de l'eau passée comprennent d'énormes canaux d'écoulement creusés par les inondations, d'anciens réseaux de vallées fluviales, des deltas et des lits de lacs ; et la détection de roches et de minéraux à la surface qui n'auraient pu se former que dans de l'eau liquide. De nombreuses caractéristiques géomorphologiques suggèrent la présence de glace de sol (pergélisol) et le mouvement de la glace dans les glaciers, tant dans le passé récent que maintenant. Les ravins et les lignes de pente le long des falaises et des parois des cratères suggèrent que l'eau qui coule continue de façonner la surface de Mars, bien qu'à un degré bien moindre que dans le passé ancien. Bien que la surface de Mars ait été périodiquement humide et aurait pu être hospitalière à la vie microbienne il y a des milliards d'années, l'environnement actuel à la surface est sec et sous-gelé, ce qui représente probablement un obstacle insurmontable pour les organismes vivants. De plus, Mars n'a pas d'atmosphère épaisse, de couche d'ozone et de champ magnétique, ce qui permet aux rayonnements solaires et cosmiques de frapper la surface sans entrave. Les effets néfastes des rayonnements ionisants sur la structure cellulaire sont un autre des principaux facteurs limitant la survie de la vie à la surface. Par conséquent, les meilleurs endroits potentiels pour découvrir la vie sur Mars pourraient être dans des environnements souterrains. Le 22 novembre 2016, la NASA a annoncé la découverte d'une grande quantité de glace souterraine sur la planète Mars - le volume d'eau détecté est équivalent au volume d'eau dans le lac Supérieur. Comprendre l'eau sur Mars est essentiel pour évaluer le potentiel de la planète à abriter la vie et à fournir des ressources utilisables pour l'exploration humaine future. Pour cette raison, « Follow the Water » était le thème scientifique du programme d'exploration de Mars (MEP) de la NASA dans la première décennie du 21ème siècle. Les découvertes faites par Mars Odyssey en 2001, les rovers d'exploration de Mars (MER), Mars Reconnaissance Orbiter (MRO) et l'atterrisseur Mars Phoenix ont permis de répondre à des questions clés sur l'abondance et la distribution de l'eau sur Mars. L'orbiteur Mars Express de l'ESA a également fourni des données essentielles dans cette quête. Mars Odyssey, Mars Express, le rover MER Opportunity, MRO et le rover Mars Science Lander Curiosity renvoient toujours des données de Mars, et les découvertes continuent d'être faites.
|
Wibjörn_Karlén
|
Wibjörn Karlén (né le 26 août 1937 à Kristine, dans le comté de Kopparberg, en Suède) est un professeur émérite de géographie physique et de géologie quaternaire à l'Université de Stockholm, en Suède. Dans un article qui décrit Karlén comme un paléoclimatologue, il est cité comme disant : « L'un des gros problèmes lorsqu'on essaie de déterminer les changements de température à long terme, c'est que les enregistrements météorologiques ne remontent qu'à environ 1860. En s'appuyant sur la reconstruction statistique des 1000 dernières années, en utilisant uniquement les modèles de température des 140 dernières années au lieu des relevés de température réels, le rapport et le résumé du GIEC ont manqué à la fois une période de refroidissement majeure ainsi qu'une tendance significative au réchauffement au cours de ce millénaire. Karlén a également critiqué les médias dominants pour avoir « répandu les vues exagérées d'un impact humain sur le climat ». Il a également été nommé dans un rapport minoritaire de 2007 de la Commission de l'environnement et des travaux publics du Sénat américain comme l'un des 400 « scientifiques éminents » qui contestaient le réchauffement climatique. En 2010, il a prédit que les changements climatiques naturels, causés en grande partie par l'activité du soleil, rendraient le climat plus froid que plus chaud au cours des prochaines décennies. Il est l'un des auteurs de l'Independent Summary for Policymakers 2007 de l'Institut Fraser. Karlén est membre de l'Académie royale des sciences de Suède.
|
World_Bank_Group
|
Le Groupe de la Banque mondiale (GBM) est une famille de cinq organisations internationales qui accordent des prêts à effet de levier aux pays en développement. C'est la banque de développement la plus grande et la plus célèbre au monde et elle a le statut d'observateur auprès du Groupe des Nations Unies pour le développement. La banque est basée à Washington, D.C. et a fourni environ 61 milliards de dollars de prêts et d'assistance aux pays « en développement » et en transition au cours de l'exercice 2014. La mission déclarée de la banque est d'atteindre le double objectif de mettre fin à l'extrême pauvreté et de construire une prospérité partagée. En 2015, le total des prêts au titre des 10 dernières années par le biais du financement des politiques de développement s'élevait à environ 117 milliards de dollars. Ses cinq organisations sont la Banque internationale pour la reconstruction et le développement (BIRD), l'Association internationale de développement (IDA), la Société financière internationale (SFI), l'Agence multilatérale de garantie des investissements (AMGI) et le Centre international pour le règlement des différends relatifs aux investissements (CIRDI). Les activités de la Banque mondiale (la BIRD et de l'IDA) sont axées sur les pays en développement, dans des domaines tels que le développement humain (par exemple, l'éducation, la santé), l'agriculture et le développement rural (par exemple, l'irrigation et les services ruraux), la protection de l'environnement (par exemple, la réduction de la pollution, l'établissement et l'application de réglementations), les infrastructures (par exemple, les routes, la régénération urbaine et l'électricité), les grands projets de construction industrielle et la gouvernance (par exemple, la lutte contre la corruption, la traduction écologique). développement des institutions juridiques) . La BIRD et l'IDA accordent des prêts à des taux préférentiels aux pays membres, ainsi que des dons aux pays les plus pauvres. Les prêts ou les subventions pour des projets spécifiques sont souvent liés à des changements politiques plus larges dans le secteur ou dans l'économie du pays dans son ensemble. Par exemple, un prêt pour améliorer la gestion de l'environnement côtier peut être lié au développement de nouvelles institutions environnementales aux niveaux national et local et à la mise en œuvre de nouvelles réglementations pour limiter la pollution, ou non, comme dans le cas de la construction de papeteries financées par la Banque mondiale le long du Rio Uruguay en 2006. La Banque mondiale a fait l'objet de diverses critiques au fil des ans et a été ternie par un scandale avec le président de la banque de l'époque, Paul Wolfowitz, et son assistante, Shaha Riza, en 2007.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.