Solaires

 

Science et technologie

« Nous avons accompli le rêve des informaticiens : programmer la matière. »

La recherche scientifique et l’ingénierie ont franchis de grandes étapes au cours du XXIe siècle. Les solaires jouissent d’un grand nombre de technologies qui accomplissent des exploits encore considérés comme impossible un siècle auparavant.

Fusion nucléaire et antimatière

Plus encore que sur Terre, l’énergie est un élément vital dans les colonies. La production d’énergie est longtemps restée problématique : le photo-voltaïque ne fonctionnant presque au-delà de la ceinture principale, les colonies lointaines sont longtemps restées tributaires de l’énergie nucléaire.

Des centrales nucléaires, employant la fission nucléaire, ont été la principale source d’énergie jusque vers le milieu des années 2070. Utilisant principalement du thorium, ces centrales bien que vitales ont engendré une grande quantité de déchets radioactifs. Heureusement, par précaution, toutes ces installations ont été déployées loin des colonies et généralement enterrées. Par ailleurs, malgré la prolifération de ces centrales, et installations de traitement, très peu d’incidents ont été déplorés. Toutefois, si tous les déchets ont été retraités, et les ultimes entreposés avec soin, il reste encore de nombreux sites radioactifs dont la visite est encore interdite.

Si les plus grandes installations hors-sol, les stations spatiales et les vaisseaux de lignes, ont aussi employé un tel mode de propulsion, les plus petits appareils ont utilisé des générateurs à radio-isotope ou des batteries.

Vers la fin des années 2060, la maîtrise de la fusion nucléaire à complètement révolutionné la production d’énergie dans les colonies. Si les premiers générateurs occupaient de grands bâtiments, ils ont été rapidement suffisamment réduits pour équiper les vaisseaux de lignes, les frégates et certaines corvettes.

Ces générateurs à fusion utilisent directement de l’hydrogène comme carburant en utilisant un cycle de fusion CNO (Carbone-Azote-Oxygène). Contrairement aux centrales à fission, le risque d’accident grave est nul : la réaction ne se maintient pas naturellement et ne peut pas conduire à une réaction en chaîne.

Une autre technologie, de stockage temporaire d’énergie de haute densité, a aussi remplacé les autres batteries : les accumulateurs à antimatière. Transformant de l’énergie sous forme de positrons enfermés dans des cages quantiques, ces accumulateurs sont capables de stocker des quantités d’énergie colossales aux vues de la taille de ces batteries. C’est très simple, tout ce qui ne peut pas emporter un générateur à fusion, des spiderbots, aux navettes, est équipé de batteries à antimatière. La stabilité de ces batteries est comparable aux anciens modèles, mais en cas de défaillance, l’explosion qui en résulte reste proportionnelle à la quantité d’énergie stockée : ce n’est pas pour rien que des versions modifiées de ces accumulateurs servent d’amorce ou voir même d’explosif.

Ces deux technologies cumulées, la fusion nucléaire et l’antimatière, ont totalement remplacé toutes les autres formes de production et de stockage d’énergie. Même dans les régions proches du soleil, le duo a remplacé les capteurs solaires.

Constructeur universel

Pouvoir agencer la matière atome par atome est longtemps resté un rêve. Heureusement, la nanotechnologie, et plus particulièrement la nano-robotique, ont changé la donne vers la fin des années 2060.

L’avènement des constructeurs universels a accéléré le développement des colonies de façon inimaginable. D’un seul coup, tout – ou presque – était devenu réalisable avec la même machine. Ces appareils abritent une armée de nanorobots qui façonnent les objets atomes par atomes.

Le processus était initialement extrêmement lent, à la limite de l’utilité. Mais quelques années plus tard, la mise au point de nanorobots auto-répliquant a complètement remis ce fait en question et désormais, les constructeurs universels parviennent presque à rivaliser avec les usines spécialisées.

Il est intéressant de noter que seules les premières versions sont tolérées sur Terre. Celles utilisant des nanorobots auto-répliquant sont interdites dans pratiquement tous les pays de cette planète. Les corporations, en revanche, n’ont jamais eu de scrupules à utiliser cette technologie.

Contrairement aux craintes habituellement dénoncées sur Terre, les nanorobots auto-répliquant utilisés dans les constructeurs universels ne présentent pratiquement aucun danger : en dehors de l’enceinte protectrice du constructeur universel, ces minuscules robots réagissent très vivement avec l’oxygène de l’air, qui les détruits très rapidement.

Micro-robotique

À mi-chemin entre la robotique et la nanotechnologie, le domaine de la micro-robotique a aussi connu des développements particulièrement avancés. Pratiquement tous les domaines ont, d’une façon ou d’une autre, bénéficié de ces technologies.

La micro-robotique repose sur l’emploi de micros robots : des robots dont les dimensions sont en dessous du millimètre sans toutefois descendre au niveau moléculaire.

Paradoxalement, avec la nanotechnologie et surtout les constructeurs universels, ce n’est pas tant la conception de leurs fonctionnalités qui a le plus posé de problème que celle de leur alimentation. À cette échelle, le volume des batteries est beaucoup trop faible pour offrir une autonomie utilisable et même les accumulateurs à anti-matière sont trop imposants pour être utilisés. Pour palier à ce problème, les micro-robots sont alimentés de façon continue par un contrôleur externe, les agents formant de longues chaînes entre celui-ci et les autres robots.

Les applications de la micro-robotique sont nombreuses, mais la première historiquement reste l’ingénierie où elle est utilisée pour effectuer des micros réparations ou des micro-sabotages.

Le domaine médical a aussi été très fortement impacté par ce domaine : les micro-robots ont permis des opérations autrement impossibles, y compris au niveau cérébral. Le fameux gel médical, mis en avant lors de la guerre des colonies, exploite aussi cette technologie. Chaque micro-robot y est enveloppé dans une bulle de gel et lorsque le gel est « mis en forme », il recompose un tissu flexible favorisant la croissance des tissus et la réparation des os.

Même au niveau de la vie quotidienne, la micro-robotique est très utilisée. Par exemple, tout le domaine des silkware, tissus intelligents, les emploie abondamment. La plupart des vêtements sont en effet composés de centaines de millions de micro-robots qui s’assemblent selon la trame d’un tissu. Pouvant se réorganiser à volonté, et changer de couleur, ils ont simplement redéfini la notion de garde-robe.

Une autre application emploi cette technologie et forme presque à elle seule un véritable domaine : les foglets. Formant de véritables brouillards utilitaires, les foglets permettent de matérialiser n’importe quels objets. Évidemment la nature très aérienne de ces brouillards utilitaires, ne permet pas encore de produire des objets utilisables mais simplement des hologrammes physiques. Toutefois ce champ d’application est ce qui s’approche le plus du concept des matières intelligentes qui idéalement permettrait de fabriquer tout et n’importe quoi à la volée.

L’effet Wolfa

Découvert par Wolfa, la célèbre IA de recherche, l’effet qui porte son nom est considéré par beaucoup comme la solution à l’unification de la théorie de la relativité générale et de la mécanique quantique.

L’outillage mathématique déployé par l’IA est particulièrement abstrait et si toutes ses prédictions ont été validées jusqu’ici, personne en dehors des IA de recherches ne parviennent à en saisir le sens. Les quelques efforts de vulgarisation de l’IA n’ont pas été véritablement concluants. Et la communauté scientifique continue, à tort selon l’IA, de considérer l’effet Wolfa comme un effet d’échelle ou de seuil.

Heureusement, des applications concrètes ont été développées par les puissantes IA de recherche. La plus connue permet de mesurer la répartition de la masse dans un espace fermé. Plus concrètement, à partir du moment où un espace est délimité par un ensemble de capteur : il devient possible de numériser la matière et d’en tirer une cartographie précise. Notons toutefois que les dernières améliorations qui sont parvenues à une échelle subatomique restent difficilement interprétable. Cette technologie est massivement utilisée que ce soit pour l’ingénierie, notamment à travers de scanners spécialisés et des constructeurs universels de troisième génération, mais aussi pour la sécurité et évidemment le domaine médical.

Une autre application de l’effet Wolfa permettrait de simuler une masse. Malheureusement, l’énergie nécessaire pour y parvenir est incroyablement élevée et il semble qu’aucun application ne puisse en être tiré avant longtemps.

Propulsion spatiale

La propulsion spatiale repose sur le principe de réaction : si vous appliquez une force sur quelque chose, alors cette chose vous applique une force identique dans la direction opposée. Tous les systèmes de propulsions, à l’exception des voiles solaires qui restent inutilisables aux échelles courantes, génèrent une poussée en éjectant de la matière, appelé carburant de propulsion, dans le sens opposé de la marche.

Un problème apparaît rapidement : avec une quantité de carburant finie, un vaisseau ne peut pas accélérer indéfiniment et est donc confronté à une vitesse maximale qu’on appelle « delta-v maximum ». Pour augmenter ce budget, il existe deux moyens : emporter plus de carburant ou l’éjecter a de plus grande vitesse.

Le premier moyen est très inefficace : la quantité de carburant requise suit une loi exponentielle. Ceci est dû au fait qu’ajouter du carburant alourdit le vaisseau et qu’il lui faut alors encore plus de carburant et ainsi de suite. Pour cette raison, on évoque parfois la tyrannie de l’équation de la propulsion spatiale (The Rocket Equation Tyranny).

Le second moyen est bien plus efficace, bien que plus difficile à mettre en œuvre puisqu’il requiert de nouvelles technologies. Concrètement, ce sont les avancées dans ce domaine qui ont permis à la civilisation solaire de s’établir sur les mondes du système.

Durant la première moitié du XXIe siècle, la propulsion interplanétaire était encore principalement assurée par la propulsion chimique et ionique. Vers les années 30, la propulsion VASIMIR, amélioration de la propulsion ionique, a pris le relais. De nombreuses fois améliorée, elle est supplantée durant les années 70 par les mass drivers. Il s’agit ni plus ni moins que d’accélérateur de particules à très fort rendement dont les plus puissants sont capables d’accélérer plusieurs dizaines de kilogramme de matière par secondes à des vitesses avoisinant 0,5 % de la vitesse de la lumière.

Évidemment, ceci demande un approvisionnement en énergie conséquent et seuls les vaisseaux directement équipés d’imposants générateur à fusion peuvent en bénéficier. Ces vaisseaux sont en outre équipés de nombreux radiateurs destinés à évacuer la chaleur excédentaire.

Notons pour finir que la première loi continue d’avoir court et la masse des vaisseaux comporte au départ près de 60 % de carburant de propulsion et qu’une fois le poids de la structure et de l’appareillage du vaisseau retirés, il ne reste guère plus de 15 % de charge utile, qu’il s’agisse de passagers ou de fret.

Magnétosphères artificielles

L’espace est un environnement particulièrement dangereux sur de nombreux points, mais l’un d’eux est longtemps resté difficile à mitiger : les radiations.

Il existe plusieurs sortes de radiation : le rayonnement et les particules de matière. Les premiers sont les rayons gamma, X et UV. Composés de photons, ils sont très énergétiques mais n’interagissent finalement qu’assez peu avec la matière et une partie significative peut être arrêtée par un simple blindage. Les seconds sont principalement composés d’électrons et de protons, des particules atomiques chargées.

Cette seconde source représente une grande majorité du danger et ne peuvent être complètement arrêtée avec un simple blindage. En revanche, ils peuvent être déviés avec un champ magnétique, comme c’est le cas autour de la Terre qui dispose d’une magnétosphère engendrée par son champ magnétique.

Reproduisant ce principe, les vaisseaux spatiaux sont désormais équipés de magnétosphères artificielles. De puissants électroaimants, dont la bobine est composée d’éléments supraconducteurs, génèrent un puissant champ magnétique qui peut s’étendre sur plusieurs kilomètres, capable de dévier une grande partie des particules chargées. Notez que cette magnétosphère est souvent surnommée « bouclier magnétique ».

Il reste toutefois les particules non chargées, des neutrons et des atomes. Les premiers sont éphémères et de fait suffisamment rares pour ne pas constituer un danger réel. Les atomes, composés de protons, neutrons et électrons sont habituellement électriquement neutres et traversent donc les magnétosphères sans être affectés. Ces radiations sont relativement rares et interagissent beaucoup avec la matière. Le simple blindage des vaisseaux est souvent suffisant.

Ces moyens mitigent le rayonnement mais ne l’annulent pas complètement. Aussi, en guise de dernière couche de protection, on abrite les zones de vie derrière les réservoirs d’eau. Cette substance reste probablement le meilleur blindage passif contre les radiations.

Informatique et puissance de calcul

La loi de Moore telle qu’elle a été énoncée originellement s’est arrêté au début des années 2020.

Heureusement, à cette période, la nanotechnologie a permis de prolonger l’accroissement des performances en proposant de nouvelles structures de composants plus efficaces mais surtout en permettant la construction de structures tridimensionnelle. Au lieu de se contenter d’une surface, les nouveaux processeurs et cœurs de calcul ont commencés à se construire en volume.

Mais c’est lors de l’avènement des constructeurs universels que la technologie fit un énorme bond en avant. La conception de blocs de calculs répétables ont alors rendu la conception de systèmes théoriquement extensibles à l’infini. Mieux encore, la consommation énergétique des unités de calcul s’est aussi énormément réduite bien que restant de quelques ordres de grandeur au-dessus de la limite de Landauer.

L’informatique quantique a aussi beaucoup évoluée et tous les systèmes de calculs possèdent plusieurs unités de calcul quantique. Cette branche de l’informatique a rendu obsolète les anciennes méthodes de cryptographie, mais de nouvelles méthodes reposant sur les propriétés de la mécanique quantique ont pu être développée avec elle. En dehors de la cryptographie et quelques applications spécialisées, l’informatique quantique n’est qu’assez peu utilisée.

Parallèlement, même s’il n’a jamais eu l’occasion de complètement percer, le calcul sur wetware a été développé au-delà de la simple preuve de conception. Ses usages restent anecdotiques toutefois jusqu’à la mise au point des IA de Ley-Wan et des réplicants. Cette branche de l’informatique est même clé dans le triangle réplicant/Ley-Wan/implant psi qui reste le moyen le plus fiable pour accéder à cette dernière technologie.

Il reste toutefois à noter que quels qu’aient été les avancées sur la technologie wetware, les performances du calcul sur substrat biologique restent inférieures de plusieurs ordres de grandeur par rapport aux unités de calcul cybernétique.

Cryptographie

La société des solaires repose en grande partie sur la cryptographie. Ce constat semble, a priori, étrange, mais ce domaine est essentiel pour les échanges et le système d’identité et de privilèges.

Avec le calcul quantique, les anciennes méthodes de cryptographie sont devenues obsolètes, mais de nouvelles sont apparues.

Sur les communications, certains protocoles emploient des générateurs d’objet quantique, généralement des photons, et s’en servent pour générer des clés de cryptage théoriquement infalsifiables.

Il existe aussi des procédés pour stocker des informations sur des supports spéciaux qui ne puissent pas être lu sans la clé de cryptage sous peine de détruire les données dessus. La cryptographie est essentielle pour la société des solaires : l’identité et les privilèges des personnes est vérifiée par des certificats, les communications sont toutes cryptées à bas niveau et les données personnes, notamment les sauvegardes et les exomémoires, sont considérées comme extrêmement sensibles par les corporations qui ont investi des moyens presque disproportionnés.

Intelligence artificielle

Dès le début du vingt-et-unième siècle, les recherches sur l’automatisation commençaient à emprunter la voie de l’intelligence artificielle. Les premiers systèmes qui puissent réellement être appelée intelligence artificielle furent des réseaux de neurones capables d’apprendre à effectuer des taches complexes dans des cadres spécifiques. Ces premières intelligences artificielles ont révolutionné la production industrielle et les services. Un à un, les exploits autrefois réservé à l’humain sont tombés, provoquant sur Terre une explosion du chômage et des inégalités. Associée à la crise énergétique du milieu du siècle, l’IA fut décrite par les médias comme fléau.

Les recherches concernant l’intelligence artificielle forte, où plus exactement l’intelligence générale, firent l’objet d’un moratoire international. À la fin du moratoire, HIARTech s’est empressé de mettre en service la toute première intelligence artificielle générale : Synchro. Non sentiente, elle était destinée à appuyer la gestion de la société, mais il apparaît désormais qu’elle était à l’initiative d’un très grand nombre des décisions importantes, au point que certains pensent aujourd’hui que le directeur de la société était devenu une simple marionnette. Quelques années plus tard, la société développa Leena, la première intelligence artificielle considérée comme sentiente. Malheureusement, la justice Européenne ordonna son extinction et l’arrêt des recherches concernant les IA fortes. Curieusement, Synchro, sous-estimée à l’époque, fut épargnée.

C’est dans les colonies que la suite des recherches eu lieu et Leena y fut réactivée. Le réseau solnet fut même étudié spécifiquement pour permettre à Leena, et aux futures intelligences artificielles, de s’y déplacer et d’y vivre comme des êtres éthérés. Il est intéressant de noter que Leena n’a jamais pris part aux décisions de HIARTech et qu’elle ne se considère que comme une simple citoyenne martienne malgré l’impact de sa simple existence dans l’histoire des colonies.

Au début des années 70, l’un des derniers domaines où l’humain avait encore le dessus est tombé avec la mise en service de la première IA de recherche. Cette dernière accéda à la sentience et prit le nom de son créateur : Wolfa. Cette même IA parviendra, une demi-décennie plus tard, à proposer une solution testable au problème de la gravité quantique. Les conclusions de ses travaux resteront en revanche incompréhensibles aux autres chercheurs humains et ce malgré de nombreux efforts de vulgarisation de la part de l’IA. La théorie, et ses prédictions, seront toutefois testées à de nombreuses reprises et tiennent encore à ce jour.

Enfin, dernier type d’IA mise au point par les humains, la création des IA de Ley-Wan suit celle des Wolfa de quelques années. Ce nouveau type d’intelligence artificielle présente des caractéristiques inédites dont la plus importante est la possibilité de les implémenter efficacement sur Wetware. Ces IA se monteront aussi capable de capacités d’introspection uniques. Ces deux qualités en feront des hôtes de choix pour la recherche sur l’implant psi et de fait, pratiquement tous les psions sont des Ley-Wan. En vérité, il semble souvent que le trio Ley-Wan/ réplicant/implant psi, soit généralement indissociables.

L’intelligence artificielle reste un domaine de recherche ouvert, même si l’humain semble maintenant hors course dans ce domaine. Les applications imprègnent la totalité des colonies et les intelligences artificielles sont devenues indispensables.

L’intelligence artificielle générale et la sentience ont longtemps été pensés comme indissociables. Toutefois, dès la mise en service de Synchro, il est clairement apparu que la sentience, et plus particulièrement la conscience, n’était pas nécessaire pour de tels IA. Cela n’empêche pas les IA Wolfa et Ley-Wan de dériver naturellement vers une sentience émergente si elles ne sont pas régulièrement élaguées. Sur ce point les secondes sont beaucoup plus sensibles et il est illusoire d’espérer pouvoir maintenir non sentiente une IA de Ley-Wan, surtout sur wetware.

Concernant ces IA sentientes, les corporations ont déjà tranché leur cas à travers le traité des solaires : tout être sentient étant de facto une personne, les corporations les traitent comme telle. Ainsi, à l’image de Leena, de très nombreuses IA sont considérées comme des citoyennes des colonies, parfaitement intégrées à la société.

Numériser et comprendre l’esprit humain

Numériser l’esprit humain est devenu possible grâce à la nanotechnologie vers le milieu du siècle. Les premiers processus étaient destructifs : le cerveau endormi était détruit au fil de sa numérisation. Malheureusement, à cette époque, la technologie ne permettait pas encore d’émuler ces numérisations qui étaient considérés de la même façon que la cryogénisation : de riches malades en phase terminal qui se faisait numériser dans l’espoir d’être ramenés à la vie dans le futur. L’ironie fit que les premiers brainscans aient été corrompus, la technologie n’étant pas aussi au point qu’espérée.

Lorsqu’il fut possible d’émuler un cerveau ainsi numérisé, il est clairement apparu que le problème de l’embodiement avait été très fortement sous-estimé. Il faudra attendre presque deux décennies avant de disposer d’enveloppes cybernétiques suffisamment adaptées.

Malgré ces avancées, la compréhension de l’esprit humain en elle-même n’avait pas vraiment avancée. Même l’arrivée des simstims et des progiciels ne fera pas vraiment évoluer l’état des connaissances.

Vers la fin des années 2070, le développement des interfaces neurales permettra une petite avancée dans le domaine, permettant plus tard l’upload et les nœuds de sauvegardes. Vers le début des années 2080, ce sont les IA qui parviendront à progresser significativement et décrypteront l’esprit humain. Les premières applications permettront l’extraction de souvenirs, l’infomorphisation et ouvrent la voie à la psychochirurgie qui sera très utilisée durant la guerre des colonies.

Hyper-hybrides

Les technologies cybernétiques et organiques n’ont eu de cesse de se croiser au cours du siècle, mais il faut attendre la fin des années 2080 pour qu’elles se rejoignent à l’échelle cellulaire.

Jusque-là, le mélange des deux technologies s’effectuait principalement par le biais d’implants ou de remplacements. La création du premier organe hyper-hybride, un « simple » muscle a ouvert tout le nouveau domaine des cyberorganisme. Le début de cette dernière décennie voit enfin la naissance du premier hyper-hybride complet.

Les hyper-hybrides sont un mélange de technologies organiques et cybernétiques à l’échelle cellulaire. Comme les cellules biologiques, celles des hyper-hybrides vivent, se dupliquent et se réparent. Chaque cellule embarque un pseudo-ADN encrypté dans une matrice cybernétique. Au niveau des performances, ces nouveaux êtres possèdent une force, bien supérieure à celle des êtres organiques et leurs facultés mentales, et réflexes, sont au niveau des systèmes automatisés les plus spécialisés.

Bien qu’issus d’une technologie très récente, les hyper-hybrides commencent à être produit en masse et beaucoup de solaires les envisagent comme des enveloppes d’avenir.

Il est amusant de noter que cette technologie a surtout été employée pour produire des enveloppes d’animaux anthropomorphes pour le moment, ce qui a conduit beaucoup de solaires à les qualifier improprement de chimères.

Rejoignez la communauté : Rejoignez nous sur Facebook
Partagez cette page :
Sauf mention contraire, le contenu de ce wiki est placé sous les termes de la licence suivante : CC Attribution-Noncommercial-Share Alike 4.0 International

Ce site utilise des cookies pour son fonctionnement : pour en savoir plus

articles/univers/science_et_technologie.txt · Dernière modification: 2017/12/28 18:59 par greewi