10 août 2017

BIO : Tout est bon dans le cochon ... mutant !

George Church et Luhan Yang sont deux chercheurs en génétique de l'Université d'Harvard (Cambridge, Massachusetts, USA). Ils ont fondé la société eGenesis , une startup de Cambridge qui a réuni 38 millions de dollars US en vue d'utiliser le CRISPR-Cas9 afin de modifier le génome des cochons pour les rendre compatibles avec des xénogreffes au bénéfice des humains.
En effet, les USA, comme d'ailleurs l'Europe, sont confrontés à une pénurie de donneurs et d'organes sains. La situation est telle que plus de vingt malades américains meurent chaque jour faute d'avoir pu recevoir un greffon à temps.
La société eGenesis est parvenue à obtenir la naissance de 37 porcelets dont les organes sont potentiellement compatibles pour une transplantation sur un humain depuis un donneur animal, sans effets secondaires ni danger viral pour le greffé voir l'article ici .
La transplantation du porc vers l'humain était jusqu'ici limitée aux valves cardiaques et sous certaines conditions très lourdes au pancréas. Grâce aux techniques d'ingénierie génétique, les deux scientifiques et une équipe internationale ont réussi à retirer les gènes responsables de certains virus dans l'ADN des porcs avant le développement embryonnaire. Aujourd'hui âgés de 4 mois, 37 porcelets sont élevés en disposant d'organes développés naturellement tout en étant compatibles avec un future xénotransplantation sans effets secondaires ni danger pour la santé du greffé. Une première tentative pourrait être programmée d'ici 2 à 3 ans.
Ces travaux ont été publiés le 10 août 2017 dans la revue Science de l'American Association for the Advancement of Science (article ici)
Voir le détail de la publication selon ce lien.
A quand des transplantations d'oeil, de cochlée, d'épithélium olfactif, voire de morceau de cerveau ?

03 août 2017

BIO : Le CRISPR-Cas 9 et la modification des embryons humains.

Dans leur chronique publiée le 2 août 2017 sur le site de la revue Nature "Biotechnology: At the heart of gene edits in human embryos", Nerges Winblad et Fredrik Lanner du département des sciences cliniques de l’Institut Karolinska de Stockholm (Suède), commentent les nouvelles dimensions biologiques, les applications cliniques mais également les contraintes éthiques posées par le travail de l'équipe de Shoukhrat Mitalipov, directeur du centre de thérapie génétique et cellulaire des embryons de l’Université de Portland (Oregon, USA), qui avait créé pour la première fois des cellules souches à partir de cellules adultes humaines, en 2014.
Cette fois, les chercheurs américains rendent compte d'une étude, également publiée le même 2 août 2017 dans Nature sous le titre "Correction of pathogenic gene in human embryos", et dans laquelle ils ont réussi avec succès à corriger chez des embryons humain une mutation porteuse d'une maladie héréditaire grâce à la technique maintenant célèbre de CRISPR-Cas9. Cet outil à tout faire du génie génétique est capable de façonner l'ADN des bactéries, mais également aujourd’hui de tous les fœtus des organismes eucaryotes, et donc ceux des humains.
La méthode de modification du génome est à la fois ciblée, viable, avec une réussite proche de 100% dans le traitement des maladies héréditaires.
L’exemple abordé par les auteurs est celui de la cardiomyopathie hypertrophique, une maladie génétique à l’origine d’une hypertrophie du cœur. Cell-là entraine des troubles cardiaques à l’origine de syndromes de mort subite. Lorsque l’un des deux parents est porteur du gène pathogène, l’enfant à une chance sur deux d’être atteint et une chance sur deux d’échapper à la maladie.
La première solution consiste à trier les embryons par analyse génétique, après une fécondation in vitro (FIV), et de ne garder que ceux non porteurs de la maladie. Cela entraine de fait une sélection de la moitié du matériel disponible. La seconde solution menée à bien par l’équipe de Portland est de recourir au CRISPR-Cas9 et de modifier le génome afin de le nettoyer du gène pathogène.
Les chercheurs ont injecté le CRISPR-Cas9 en même temps que le spermatozoïde lors de la métaphase II (un cycle déterminé) de l'ovocyte. La technique a permis de réparer l’ADN et ainsi obtenir des gènes corrigés sans que le reste du génome n'ait été modifié, et en préservant la viabilité des embryons.
Au delà des espoirs apporté par la méthode pour le traitement des maladies génétiques, le problème reste celui de l’éthique dans l’utilisation clinique de leur méthode, et les risques liés à une modification de lignées germinales. Le recours à de telles méthodes en médecine vétérinaire ou en dehors des cadres de la clinique, pour modifier le génome de fœtus viables, ouvre la perspective vertigineuse des modifications ouvertes à tous les fous de la planète.

IA : Les exosquelette ; on a le choix.

Le développement des exosquelettes est un des points centraux de la robotique collaborative. Un exosquelette est un dispositif cobotique actif. Il permet de développer une aide motrice ou sensori-motrice et amplifier l’effort de son utilisateur. Celui-là peut être un manutentionnaire, un soldat, un opérateur dans un atelier, sur une chaîne de montage, dans un chantier de BTP, ou une personne en fragilité ou en rééducation clinique de mobilité ou d'équilibre, voire une personne âgée qui peut, grâce à cette aide, recouvrer des fonctions perdues ou diminuées. Plusieurs sociétés proposent des exosquelettes, avec des philosophies conceptuelles et d'usage souvent différentes et parfois complémentaires.
Superflex est un prototype développé par un groupe de chercheurs de SRI International, l'ancien Stanford Research Institute. Il est conçu pour faciliter la marche des soldats et les déplacements des personnes âgées. Il s’agit d'une combinaison souple, équipée de capteurs et d'un système d'intelligence artificielle. Il s’adapte à la démarche de son utilisateur, apprend ses caractéristiques et permet d’apporter une force supplémentaire ou une meilleure précision au moment où l’utilisateur en a besoin. Cela se fait indépendamment de sa volonté, de manière totalement transparente. Une telle combinaison militaire et industrielle permettrait également aux personne à la mobilité réduite de gravir des escaliers, et aux opérateur d’éviter les troubles musculo-squelettiques (TMS) tout en favorisant le maintien de l'équilibre et la sécurité des personnes.
Exosuit est une solution développée par l’Institut Wyss de l’Universite de Harvard et financé par le DARPA (Defense Advanced Research Projects Agency) dans le cadre du programme Warrior-Web. Ce prototype souple permet aux militaires d’augmenter la distance parcourue avec une charge lourde. Il est composé de tissu souples, d’actionneurs et de capteurs qui en font une sorte de pantalon intelligent qui s’inspire des muscles et tendons des jambes de l’appareil locomoteur humain. L’appareil est maintenu par des sangles et peut donc être rapidement installé ou retiré en fonction des tâches à effectuer. Parallèlement, la DARPA finance XOS2 de l’entreprise Raytheon Sarcos pour un déploiement opérationnel prochain dans les unités combattantes. Un autre projet, Talos (Tactical Assault Light Operator Suit), associe un exosquelette à une armure intégrale de protection antibalistique.
Phoenix est proposé par SuitX, une spin-off développée par des anciens de l’Université de Californie à Berkeley. Il s’agit d’un dispositif léger et peu onéreux, prévu pour permettre aux paraplégiques de remarcher avec une autonomie de quatre heures. Le dispositif est modulable et peut s’adapter aux caractéristiques physiques de la personne, à celles de son handicap, et à ses préférences de vitesse ou de démarche aidée par des béquilles.
La France s’intéresse également au domaine avec plusieurs projets. ExoPush est ainsi un exosquelette, proposé par la start-up RB3D, prévu pour l’aide aux opérateurs qui tirent des outils, tels que des râteaux pour le ramassage de feuilles, pour étaler le béton ou le ciment sur un chantier ou le bitume sur les routes. Exoback de RB3D est un exosquelette dédié, quant à lui, aux militaires pour les charges dorsales. ExoUp en est une déclinaison civile pour les manutentionnaires. Hercule, développé avec le soutien de la DGA (Direction Générale de l’Armement), entre quant à lui dans le programme « soldat du futur » et ambitionne doter l’armée française en théâtre d’operations.
Plus spécialisée, la ceinture Atlas est développée par la start-up française Japet. Il s’agit d’un système permettant aux personnes atteintes de sciatiques chroniques de recouvrer leurs activités socio-professionnelles. La ceinture robotisée est dotée de quatre vérins, dont l’asservissement est coordonné par une carte Arduino, qui diminuent la pression sur les disques intervertébraux par une décompression de la colonne vertébrale. Le gant de rééducation Exoglove a quant à lui été développé par des élèves ingénieurs du Polytech Marseille. Il s’agit d’un dispositif de rééducation de la main pour le traitement des déficiences motrices ou des développement des projets industriels.
Quant au géant technologique japonais Panasonic, il mise sur une évolution incrémentale des exosquelettes avec une large gamme de modèles. Du petit AWN-03 à l’impressionnant Power Loader, en passant par le modèle Ninja, la firme nippone offre une grande variété adaptée aux différentes forces nécessaires. Sincere Kourien est une filiale de Panasonic, spécialisée dans l’aide à la personne, et commercialise des adaptations des modèles de Panasonic pour chacun, dans sa vie de tous les jours. Mais le groupe asiatique a désormais un nouveau concurrent avec le groupe automobile sud-coréen Hyundai qui développe un nouveau prototype d’exosquelette inspiré d’Iron Man. Son modèle H-LEX et son programme Next Mobility ambitionnent de devenir les éléments de base du futur de la mobilité avec les mêmes ambitions que celles de son concurrent, de l’autre côté de la Mer du Japon. Et les asiatiques ne sont pas les seuls sur le terrain de la concurrence. Ekso Bionics, BMW, Audi ou de nombreux groupes associés à des universités se sont lancés dans la course.
Bref. La guerre des exosquelettes ne fait que commencer.

02 août 2017

BIO - TECH : Mercredi noir pour le Monde.

Alors que le ministre français de l'environnement (ministre de la transition écologique et solidaire) appelle, dans une tribune publiée ce mercredi 2 août 2017 sur le site du Journal Le Monde, les citoyens à un "sursaut" pour la planète, l'humanité a franchit, sans réellement s'en préoccuper, le "Jour du dépassement".
C'est à partir de cette date que l'ONG Global Footprint Network (Oakland, Californie, USA) a déterminé que l'humanité vit "à crédit" en ce qui concerne les ressources de la Terre. Le "jour du dépassement de la Terre" est chaque année calculé sur la base de quelque 15000 paramètres économiques et environnementaux fournies par les Nations Unies. Ainsi, la comparaison entre empreinte écologique de l’homme, exploitation des ressources naturelles, biocapacité de la Terre à absorber les gaz à effet de serre et reconstituer les ressources dépensées, montre aujourd'hui une dette cumulative de plus de 70% par an. Et celle dette augmente tous les ans selon une logique exponentielle.
Le jour du dépassement de la Terre intervient donc tous les ans de plus en plus tôt. Les causes sont notamment celles d'une incohérence des constantes de temps. Le temps économique est de plus en plus bref, appelé en cela à la performance par les gestionnaires, manageurs, commerçants et autres apôtres de la performance marchande. C'est oublier que les temps biologiques, géologiques et écologiques restent les mêmes, immensément longs, sans réelle possibilité de comparaison.
L'homme coupe ainsi les arbres à un rythme nettement plus élevé que celui de leur croissance, que l'on ne sait pas biologiquement accélérer. Il prélève plus de poisson qu'il ne peut s'en reproduire naturellement et qu'on ne sait en élever de manière compensatoire. Il rejette d'avantage de carbone que les forêts et océans ne peuvent en absorber, sans aucune solution connue ou pouvant être raisonnablement mise en œuvre, et ainsi de suite.
Aujourd'hui, il faudrait 1,7 Terre par an pour répondre aux besoins économiques de l'humanité et aux ambitions toujours plus élevées des compagnies maritimes, aériennes, ferroviaire , automobiles, à ceux de leurs usagers, aux ambitions économiques des firmes industrielles, bancaires, commerciales et de communication, et aux besoins de consommateurs de plus en plus exigeants qui ne voient pas pourquoi, eux, devraient se priver face au luxe toujours plus insensé de la vie des riches de plus en plus riches.
Les conséquences de cette situation de surconsommation effrénée sont, pèle mêle selon l'ONG, une crise de l'eau avec l'acidification des océans et la pénuries en eau potable, une crise de la terre avec l'érosion des sols et l'accumulation des déchets, une crise du vivant avec la déforestation et le déclin de la biodiversité, une crise de l'atmosphère avec l'élévation de la concentration de CO2 et le phénomène le Niño, etc. 
 Face à cette catastrophe annoncée dans l'indifférence générale, les réfugiés se pressent aux portes des nations et grandes puissances qui s'arment et perfectionnent leurs moyens de sécurité, de défense, mais aussi de conquête des territoires, espaces maritimes et autes lieux terrestres de ressources résiduelles. La course à l'armement accompagne celle de la conquête spatiale ; il faudra bien chercher des ressources ailleurs ... ou s'en aller. 
 Dans ce paysage noir, la technologie devient première et, phénomène nouveau, s'impose à l'économie alors qu'elle lui était jusqu'ici secondaire. Selon le ministre, "la transition écologique est en train de faire ses preuves" avec des énergies renouvelables de moins en moins chères et leur production de plus en plus performante, vers "un avenir sans énergies fossiles". Le monde du transport va "tripler l’offre de véhicules électriques d’ici à 2020". La biodiversité est aujourd'hui protégée par la Loi "et l’agriculture biologique décolle". Si, selon le ministre, "de nouveaux choix de société sont en train de naître", accompagnés d'une prise de conscience nécessitant et menant à "une détermination politique" sans concession, c'est au niveau international que le problème se pose de manière critique, avec des grandes puissances qui ne jouent pas et ne joueront probablement pas, on le sait aujourd'hui, le jeu de la solidarité, et des peuples en devenir qui ne comprendraient pas qu'on leur interdise ce que l'occident s'est autorisé lui-même depuis des siècles en menant l'humanité dans cet impasse. Il faudra bien en sortir ... par la mort et ce n'est pas gai pour le futur de l'humanité, par la décroissance et c'est un combat perdu d'avance sauf pour quelques illuminés du retour à la campagne, ou par la science et la technologie, et il serait temps, Mister M, d'y "mettre le paquet!".

01 août 2017

IA - TECH : Smart Dust, la poussière intelligente en réseaux pervasifs

La "poussière intelligente" (ou "smart bust"), parfois désignée au pluriel "poussières intelligentes" pour en surligner la diversité technologique, est un nom générique pour des systèmes qui combinent des éléments nanotechnologiques ou biotechnologiques, des systèmes énergétiques et de communication. Elle est constiuée de micro systèmes autonomes ou télécommandés, qui seront progressivement placés dans l'environnement, espaces publics et privés, externes comme internes, pour le meilleur et pour le pire.
Ces systèmes seront utilisés pour la surveillance et la gestion des risques, qu'ils soient (i) biologiques pour les malades ou des personnes saines tels que sportifs, enfants ou personnes âgées, enfants, etc., (ii) de l'habitat ou des véhicules pour la température, l'humidité, les intrusions ou les chocs ..., ou (iii) géologiques et environnementaux pour les activités sismologiques, les marées et intempéries, le contrôle des incendies et des pollutions, etc. et permettront de surveiller et remonter des informations pour déclencher des régulations ou provoquer des interventions. Plus intéressant, les chercheurs travaillent à doter ces micro-capteurs de capacités locales de calcul, de mémoire et de facilités de communication autonomes et auto-alimentés par la captation du mouvement, celle de fréquences radioélectriques ou de champs magnétiques.
Issus des premiers travaux de la DARPA (Defense Advanced Research Projects Agency) des années 1990, la poussière intelligente s'apparente à un ensemble de capteurs sensoriels ou grains d'échelle nanométrique reliés entre-eux dans un réseau auto-organisé en symbiose avec l'environnement, permettant de le quantifier en temps réel. Comme ces réseaux de capteurs sont composés de MEMS (microelectromechanical systems) micro- et nano-électromécaniques, aujourd'hui de la taille d'un grain sable et bientôt complètement invisible à l’œil nu, leur utilisation pourrait être généralisée pour permettre l'élaboration de systèmes informationnels denses et largement étendus, ultra précis et multi-spécialisés, sans être perceptibles et donc sans influencer les comportements des humains étudiés ou en interraction avec le milieu.
De tels micro-capteurs intelligents de demain sont développés par plusieurs laboratoires et entreprises. Ainsi, l'université de Berkeley, Intel et plusieurs start-up de la Silicon Valley (Californie, USA) consacrent-ils leurs efforts pour de multiples applications.
L'équipe d'Intel et l'université de Berkeley ont mis au point un système d'exploitation de ces réseaux, TinyOS. Il s’agit d’un logiciel libre, d’origine universitaire et construit sur le même modèle Linux. Il peut donc être repris et amélioré par de nombreux laboratoires ou entreprises, ce qui accélère les recherches. Aujourd’hui, Il permet d’exécuter des applications n'ayant besoin que de 24 ko de mémoire, disposant de fonctions de communication sans fil, et étant capables d'analyser la pertinence des données recueillies, d’en faire le tri et de ne transmettre que les informations utiles.
Un programme de recherche financé par la DARPA prévoit que de telles poussières pourraient être dispersées par avion sur les champs de bataille, les lieux de conflits ou les zones à contrôler pour observer en permanence les déplacements des militaires adverses, des terroristes ou simplement des populations civiles. Des essais concluant ont déjà eu lieu, dans le cadre du programme militaire baptisé NEST (Network Embedded Systems Technology), sur des zones d’essai désertiques de la Californie, avec des résultats satisfaisant montrant la capacité d’auto-organisation en réseau de tels composants. Plusieurs start-up californienne, telles que Crossbow Technology financée par Intel Capital pour accélérer le développement dual de tels microcapteurs intelligents et des applications civiles, ou Dust Inc., spin-off de de Berkeley pour développer la communications de milliers de MEMS, offrent déjà des applications diverses en dehors de la sphère militaire.
Des exemples sont étudiés pour que les poussières puissent être incorporés dans les brosse à dents pour détecter les problèmes dentaires ou valoriser les comportements de brossage satisfaisants des enfants, en permettant d’avoir à la fois une information sur les smartphones de des parents et d’informer directement le dentiste qui pourra anticiper ses rendez-vous et gérer ses stocks. Ce type de régulation trouve déjà sa place dans l'automobile haut de gamme où certains véhicules communiquent avec le service de maintenance de la marque.
Crossbow estime que la commercialisation de quelques capteurs de la génération actuelle, avec une carte électronique connectée à un PC, coûte une centaine de dollars, alors que le coût de la technologie CMOS pour la poussière intelligente du futur sera inférieur à 5 centimes par millimètre carré de dispersion de la poussière, et cela dans les très prochaines années. A ce prix, on pourra noyer l’environnement sous les capteurs, et Digital Sun, une autre star-up de San Jose, va commercialiser en 2018 des nano-sondes agricoles pour renseigner en permanence sur l'état de sécheresse des sols et ainsi adapter l'irrigation ou l’arrosage automatique en augmentant la performance et en économisant l’eau.
Le marché le plus porteur reste néanmoins celui de la sécurité des biens et des personnes. On imagine des puces incorporées dès la fabrication ou placées sur les objets à protéger. On peut concevoir des badges de clients ou d’employés dotés de tels composants, avec des capteurs répartis dans les portes, les murs, plafonds ou planchers ou certains endroits stratégiques des zones ou bâtiments à surveiller. La gestion de stocks des entrepôts, le contrôle des bureaux, la surveillance des salles ou des chambres des hôpitaux ou des hôtels, des cellules des prisons, peuvent être dévolues à de tels systèmes.
La société Nox Defense propose des solutions basées sur le saupoudrage des sols par de la poussière d’identification (ID-Dust), sorte de fibres optiques nanométriques qui se collent aux semelles des intrus ou cambrioleurs sans qu’ils en aient connaissance, permettant de les retrouver et surtout de les suivre à la trace grâce à des applications cartographiques sur smartphones. Simply RFiD, la société mère de Nox Defense, rapporte que son système est déjà utilisé par certains services de renseignement contre le terrorisme, ou de sécurité des aéroports. Ces puces sont très bon marché, moins de 20 centimes l’unité, et reposent sur une technologie passive, c’est-à-dire sont indétectables par les dispositifs de contre-surveillance électronique.
Ainsi, des applications potentielles sont en train de voir le jour, avec un objectif de prévention médicale et de santé, de meilleure maitrise de l’environnement et des ressources, ou de sécurité permanente, dans des espaces pervasifs hyperconnectés. Un rapport d'EY(Ernst & Young) prévoit d’ailleurs que "nous serons bientôt équipés chacun de 10.000 micro-capteurs" et que "des milliers d'ordinateurs s'occuperont de nous, et nous ne serons plus en mesure d'intervenir directement sur chacun d'entre eux".

17 juillet 2017

IA : Musk à la manoeuvre contre l'Intelligence Artificielle.


Il y a déjà deux ans qu'Elon Musk (Tesla, SpaceX, SolarCity, Hyperloop, Open AI, Neuralink...) avait cosigné deux lettres ouvertes avec des scientifiques dont le physicien Stephen Hawking et l'informaticien Steve Wozniak, cofondateur d'Apple. Les signataires appelaient à une limitation de l'Intelligence Artificielle et de l'autonomie des machines, notamment en ce qui concerne les armes autonomes, drones et robots tueurs. Certaines personnalités telles Hawking ou Bill Gates (Microsoft) pensent que l'humanité peut largement bénéficier de formes constructives d'intelligence artificielle, tout en appelant à certaines précautions. L'IA pourrait ainsi être positive à condition qu'elle soit régulée.
Lors de la réunion estivale de la National Governors Association (association des gouverneurs des états nord américains), organisée le dernier week-end à Providence (Rhode Island, USA), Elon Musk a appelé à la prise de mesures concrètes et urgentes de sécurité face à, selon lui, la menace de l'IA. Il a ainsi réclamé aux gouverneurs des états américains la rédaction des textes de loi et leur application afin de réguler les usages mais également l'autonomie de l'IA.
Pour lui, nous sommes confrontés à une sorte de schizophrénie avec d'un côté d'immenses espoirs et de l'autre des dangers incommensurables. Il assure travailler lui-même sur des formes très avancées d'IA, et tire les sonnettes d'alarmes pour que chacun s'inquiète des progrès accomplis et à venir. Pour lui, la prise de conscience se fera lorsque "des robots tueront des personnes", mais trop tard et de manière non préparée. Les autorités et les citoyens ne sauront pas comment réagir. tellement ça leur paraitra irréel, a assuré Elon Musk.
Précautions nécessaires, l'industriel pense que les autorités doivent être proactives dans la régulation, au lieu d'être passives dans l'attente d'être réactives, car "le temps que nous réagissions, il sera trop tard".
Décrivant quelques scénarios concrets bien qu'aujourd'hui encore hypothétiques d'une intelligence artificielle qui abuserait les humains, par exemple en lançant de fausses informations tels que celles d'une attaque économique, nucléaire ou cyber, par imitation d'e-mails frauduleux et de communiqués de presse erronés etc., l'industriel a déclaré solennellement que "L'intelligence artificielle est un danger fondamental pour l'existence de la civilisation humaine" et même "le plus grand risque auquel notre civilisation sera confrontée", en estimant qu'il serait déjà "trop tard" pour sauver l'humanité si l'homme ne prend pas des mesures immédiate et très contraignante de régulation de l'IA.
Liens presse : ici et .

14 juillet 2017

BIO : Génétiquement modifiés, les moustiques de Google à l'attaque du zika, de la dengue et du chikungunya

La MIT Review, organisme de publication du Massachusetts Institute of Technology, annonce (ici) que "Verily Robot", compagnie de la holding "Alphabet", maison mère de Google, vient de lâcher plus de 20 millions de moustiques génétiquement modifiés à Fresno (Californie, USA).
Le but est de libérer dans la nature des moustiques OGM mâles afin qu’ils s’accouplent aux femelles "Aedes aegypti" en empêchant les mâles "naturels" de ces femelles de les féconder. Avantage attendu, les oeufs ainsi produits n'éclosent pas et on bloque ainsi la reproduction des insectes vecteurs des maladies virales telles la fièvre jaune, la dengue, le chikungunya et le zika. A terme, la disparition de l'espèce des moustiques dangereux, faute de combattants, permet de prévenir les viroses toxiques pour l'homme.
L'opération, suivie de près par la Food and Drug Administration, a été réalisée ce 14 juillet 2017 par la société du groupe Google, confirmant ainsi le souhait du géant américain de se diversifier dans les initiatives de convergence (NBIC).
Un second projet est prévu en Australie pour la fin d'année.
Une date historique dans la toute récente histoire de la singularité.

13 juillet 2017

IA - BIO : Nouvelle frontière - le codage informatique sur l'ADN d'une colonie de bactéries.

La revue Nature du 12 juillet 2017 rapporte (ici) la réalisation d'une nouvelle brique NBIC de la révolution de la singularité. 
Des chercheurs de la faculté de médecine d’Harvard (Boston, Massachusetts) et du Wyss Institute de l’université Harvard (Cambridge, Massachusetts) ont rapporté avoir codé des informations digitales sous forme ADN dans une population de bactéries.
Ils ont, pour cela, utilisé le système Crispr-Cas9, véritable outil à "couper-coller" l'ADN afin d'y insérer une ­séquence souhaitée. Comme le système Crispr est caractérisé par la possibilité d'aligner de façon chronologique des séquences ADN étrangères, les scientifiques ont ainsi codé des informations digitalisées temporellement organisées.
Dans le cas présent, ils ont utilisé cinq images de la célèbre chronophotographie de Eadweard Muybridge, ayant servi en 1878 à montrer l'instant fugace durant lequel les sabots du cheval au galop quittent le sol. La conversion des données informatiques, suites de 0 et de 1, en code constitué des bases A, T, C et G de l'ADN, a permis de représenter à la fois la position, la couleur et le temps de chacun de tous les pixels du film. La construction des fragments d’ADN correspondants a permis de les introduire de manière redondante dans  une population de bactéries E.coli, à raison d’une image par jour pendant cinq jours.
Il suffisait alors de récupérer l’information, en repassant de l’ADN aux pixels depuis le ­génome bactérien, par séquençage des régions d’intérêt, et de reconstituer l'ensemble à partir de la population bactérienne. Cela ne va pas de soi, et chaque bactérie n’intègrant qu'une partie des fragments, c'est donc bien la colonie bactérienne qui porte l'information totale (Ah!, ces merveilleuses bactéries !). Les chercheurs ont pour l'heure vérifié la robustesse de la méthode avec un succès de quelque 90% de l'information récupérée correctement.
L’intérêt potentiel de cette technique consiste à la fois à utiliser l’ADN comme moyen de stockage et à conserver la trace de l’expression de gènes tels que nécessaire à la différenciation cellulaire. Le plus important à nos yeux est le premier, preuve de cette nouvelle frontière de la convergence bio-numérique qui vient de tomber ; un premier pas, modeste et encore hésitant, vers le "Man-Machine Symbiosis" que prévoyait déjà les cybernéticiens des années 1950 et 60.

15 mai 2017

IA : L'Intelligence Artificielle française est en deuil.

Le professeur Alain Colmerauer est décédé à l'âge de 76 ans.
Originaire de Carcassonne, il fit ses études à Grenoble, où il devint Ingénieur Ensimag puis docteur d'Etat. Sa thèse portait sur l'analyse syntaxique des langages de programmation.
Ne reculant pas devant la difficulté, il devint expert de traduction automatique de l'Anglais vers le Français (chose que certains ne peuvent pas raisonnablement concevoir, y compris pour une traduction naturelle) et inventa pour cela les systèmes-Q. C'est notamment à partir de ces travaux et d'autres, qu'il conduisit à Marseille sur le traitement informatique de la langue, qu'il développa avec son collègue Philippe Roussel, à partir de 1972, le langage de programmation Prolog.

11 avril 2017

BIO-TECH : Mauvais temps pour les humains !!! Viva la robosphère !!!

Le mouvement poshumaniste considère que l'avenir de l'humanité ne peut pas se réaliser sous la forme actuelle des humains biologiques. Douze principaux risques de disparition de l'humanité, surpopulation, viroses catastrophiques, éruption de super volcans, collision avec un astéroïde, ou simple écroulement social mondial, ont d'ailleurs été inventoriés il y a deux ans dans le rapport du "Future of Humanité Institute"  de l'Université d'Oxford.
Dans ce contexte, plusieurs pistes sont entrevues par les transhumanistes des Gafa, allant de la modification génétique à la fuite vers l'espace, ou la simple implémentation de l'esprit humain sur des robots ou dans un réseau cosmique.
Selon un autre courant, il est probable que l'humanité disparaisse complètement en laissant sur Terre des machines qui pourrait survivre (si l'on peut dire) à l'homme grâce à des capacités d'intelligence Artificielle incommensurables. C'est ce que postule par exemple l'astrophysicien Martin Rees dont on connait l'excellente présentation TED suite à la publication en 2004 de son ouvrage "Our final hour".
Pour Rees, et dans le ton des craintes de Stephen Hawking qui prédit la fin prochaine de l'homme par l'intelligence artificielle, ce seront les robots qui supplanteront l'homme. Cette annonce faite au dernier festival de science de Cheltenham en Angleterre, repose sur la conviction que l'existence des hommes sur Terre ne représentera qu'une toute petite phase de l'histoire de la Terre. Pour lui, alors qu'il a fallu quatre milliards d'années pour passer des premiers protozoaires à l'homme, il y a autant de différence entre l'intelligence de ces unicellulaire et la notre qu'il y en aura entre la notre et celle des éléments intelligents qui nous pourraient nous survivre dans quelques millénaires. Mais pour lui, cette survie sera technologique, c'est-à-dire que des formes artificielles d'intelligence seront développées sur des entités fabriquées par cette propre intelligence. Celle-ci pourrait même être dématérialisée, comme des « entités électroniques » qui remplaceront les formes de vie organique qui les ont conçues à la base. L'humanité restera alors un souvenir pour des machines qui auront pris le dessus et auront, elles, des milliards d'années devant elles...

IA - SHS : La Réalité Virtuelle s'invite dans les sciences du comportement à Berkeley.

L'Université de Stanford avait déjà son "Virtual Human Interaction Lab." (VHIL). L’université de Berkeley ouvre son laboratoire dédié à la recherche sur la réalité virtuelle (RV) au sein de son "Centre pour la Cognition Augmentée" (CAC). 
Le but est d'évaluer l'impact psychologique et comportemental de la RV sur l’être humain. Le "UC Berkeley Immerex Virtual Reality Lab." est organisé en joint venture entre l'université et une société de Santa Clara (Californie, USA), Immerex. Celle-là propose des lunettes de RV couvrantes et légères, ce qui est original par rapport aux autres solutions qui correspondent généralement à des casques classiques (lien).

09 avril 2017

IA : L'Avenir selon IBM avec le "cognitive compting" pour augmenter notre connaissance du Monde.

IBM Research a publié la version 2017 de son « IBM 5 in 5 » innovations list, et explore comment le "cognitive computing" va augmenter notre connaissance du Monde.
Ainsi, pour IBM, l’intelligence artificielle et les nanotechnologies sont au cœur des innovations des cinq prochaines années. Les cinq innovations qui changeront nos vies sont les suivantes (ici) :
L’intelligence artificielle et la santé mentale. D'ici cinq ans, ce que nous dirons et écrirons sera analysés par de nouveaux systèmes cognitif, et pourra être utilisé comme indicateurs de notre santé mentale et de notre bien-être physique, et détecteurs de risque de maladies mentales et neurologiques pour mieux prédire, contrôler et suivre ces maladies. Les techniques de machine learning à partir de transcriptions et d'enregistrement d'entretiens psychiatriques permettent de trouver des schémas prédictifs de psychose, schizophrénie, obsession ou dépression. Aujourd’hui, 300 mots environ suffisent à aider les cliniciens à prédire la probabilité de trouble mental.
L’hyperimagerie augmentée par intelligence artificielle. De nouveaux dispositifs d'imagerie utilisant la technologie d'hyperimagerie et l'intelligence artificielle vont permettre de voir largement au-delà du domaine de la lumière visible, en combinant de multiples bandes du spectre électromagnétique pour révéler des informations utiles ou des dangers potentiels qui seraient cachés. Ces appareils vont devenir portables, financièrement abordables et accessibles à tous. L'hyperimage d’un médicament pharmaceutique, d’un chèque bancaire, ou autre, pourront par exemple nous dire ce qui est frauduleux et ce qui ne l’est pas, avec une nouvelle gamme du perceptible par l’humain là où il est aujourd'hui aveugle.
La compréhension de la complexité de la Terre. Dans cinq ans, nous maîtriserons des algorithmes de machine learning et des logiciels de traitement des informations issues milliards d’appareils contribuant à un « macroscope », système de logiciels et d’algorithmes qui permet de rassembler toutes les données complexes de la Terre pour analyser leur signification. En agrégeant, organisant et analysant ces données, sur le climat, les conditions du sol, les niveaux d’eau, les pratiques d’irrigation ou de culture, les agriculteurs bénéficieront d’informations clés qui les aideront à faire les bons choix de culture, de parcelles les meilleures pour planter tel ou tel végétal, de pratiques à adopter pour obtenir des rendements optimaux, tout en maîtrisant les réserves d’eau. De telles études sont déjà mises en oeuvre à la Gallo Winery, en Californie.
Des laboratoires médicaux « sur puce ». Les détectives nanotechnologiques de santé, capables d'identifier des indices invisibles dans nos différents fluides corporels, informeront immédiatement par réseau le médecin. Une seule puce de silicium comportera tous les processus nécessaires pour analyser les données biologiques, en ligne et de manière permanente, sans recours au laboratoire d'analyse que nous connaissons actuellement. Aujourd'hui, on sait déjà séparer et isoler les bioparticules d’un diamètre allant jusqu’à 20 nanomètres. Cette échelle donne accès à l’ADN, à des virus, à des exosomes. Ces particules pourront être analysées pour révéler la présence d’une maladie bien avant que n'en apparaissant es symptômes, permettant une véritable médecine prédictive adaptée à chacun.
Des capteurs détecteurs de pollution. Dans cinq ans, de nouvelles technologies de détection informeront à la vitesse de la lumière des données de capteurs déployées près des puits d'extraction de gaz, autour d'installations de stockage et le long des réseaux de pipelines et de distribution. L'industrie pourra localiser les fuites invisibles en temps réel et à des prix maîtrisés. Des réseaux de capteurs IoT connectés sans fil au Cloud assureront aussi le suivi continu au domicile, dans l'usine ou même dans les véhicules et drones, permettant ainsi de détecter instantanément les problèmes, de réduire la pollution et la survenue d'événements catastrophiques. Ces puces photoniques pourront être intégrées dans les sols, les infrastructures, les matériaux des véhicules et vêtements, générant des données qui, combinées à des données satellitaires et à d'autres sources historiques, peuvent être utilisées pour construire des modèles environnementaux complexes.
Voir le rapport IBM (ici).

31 mars 2017

IA - SHS : Cybercriminalité - la santé attaquée - la protection cognitive à l'ordre du jour.

L'indice IBM X-Force Threat Intelligence est un indicateur d'observation de la cybercriminalité, publié chaque année par l'entité sécurité d’IBM. 
Il est composé d'observations internes, issues de la surveillances de 8000 clients répartis dans 100 pays, et de données externes tels que des capteurs de spam, hameçonnage, honeynets et autres dispositifs malwares, grâce à des réseaux-pièges et à la surveillance de plus 37 milliards de pages Web, d'images et mails frauduleux.
IBM a publié son rapport le 30 mars 2017, et constate que le nombre de données compromises est passé de 600 millions 2015 à plus de 4 milliards en 2016, soit une augmentation de 566% pour la seule année dernière.
L'évolution concerne évidement les cartes de crédit, les mots de passe et les renseignements personnels, mais l'explosion concerne aujourd'hui n-beaucioup plus les données médicales personnelles.
De même, IBM a constaté un changement de stratégie des cyber-déliquants. Ainsi, ceux-là s'attaquent plus aux données non structurées, telles que les archives d’emails, les documents commerciaux et de propriété intellectuelle, et le code source.
Un troisième constat d'évolution qualitative concerne l'intention de ransomware qui a fait corrélativement augmenter le nombre de spams de près de 400%. En effet, la principale méthode utilisée pour le ransomware utilise les pièces jointes malveillantes dans les courriers indésirables. 
Face à cette menace et ce danger, l'économie a elle-même évolué. IBM signale que 70 % des entreprises touchées par le ransomware payent plus de 10 000 $ pour récupérer l’accès aux données et aux systèmes. Le FBI a estimé que, pour les trois premiers mois de 2016 aux USA, les cybercriminels ont perçu en rançon près de 210 millions de dollars, ce qui permet une estimation d’un milliard de dollars sur l’année 2016. Le ransomware représente ainsi 85 % des attaques. 
La santé et les services financiers sont les secteurs les plus atteints. Ainsi, l’industrie de la santé a été assaillie par un très grand nombre d’incidents, avec une concentration sur les des cibles plus petites, ce qui entraîne un nombre plus faible de fuites de données mais déstabilise beaucoup plus le système global, les petites structures étant moins bien protégées et culturellement préparées.
Le rôle de la prévention et de la protection cognitive semble de plus en plus évident. En moyenne les clients suivis par IBM ont enregistré plus de 54 millions d’événements de sécurité en 2016, soit seulement 3 % de plus qu'en 2015, avec une baisse de 12 % des attaques d’une année à l’autre. Ces résultats semblent liés à l'évolution des systèmes de sécurité qui s'améliorent et surtout, d'après IBM, à de nouvelles innovations, comme les systèmes cognitifs.
Accès au rapport IBM X-Force (ici).
Voir le communiqué d'IBM (ici).

30 mars 2017

DIV : Les élèves de ENSC distingués par le prix du jury "Vie Professionnelle" de TousHanScène 2016-17

Le Concours Vidéos Handicap Étudiants "Tous HanScène" a pour objectif d'encourager les jeunes en situation de handicap à accéder aux études supérieures et d'inciter les établissements d'enseignement supérieur à s'ouvrir davantage à ces jeunes pour leur permettre de réussir leurs études et s'insérer dans la société en minimisant les conséquences de leur handicap.
Il est dramatique de constater que dans notre pays, seuls 7% des jeunes scolarisés en situation de handicap accèdent aux études supérieures et parmi eux, seulement 1% atteint le niveau bac+5 !!!
Partant de ce constat, "Tous HanScène" s'inscrit dans trois grands enjeux nationaux : (1) inciter plus de collégiens et lycéens en situation de handicap à prolonger leurs études dans l'enseignement supérieur, (2) amplifier l'ouverture des cursus des établissements de l'enseignement supérieur aux jeunes en situation de handicap, et (3) permettre aux entreprises de recruter des personnes handicapées avec des niveaux d'études supérieurs.
C'est dans cette philosophie active que "Tous HanScène", soutenu par des grandes entreprises et organes de presse nationaux, organise un concours vidéo dont les meilleures réalisations sont saluées par une série de prix : le prix du public va à la vidéo la plus vue, et des prix du jury distinguent les vidéos dans les catégories "Arts et essais, Humour, Sport, Vie étudiante, Vie professionnelle, Vie quotidienne". Un "coup de coeur" ainsi que des pris "Jeune Pousse" pour les lycées et "Mobilisation Etablissement" pour les universités sont d'ailleurs accompagnés d'une subvention pour financer la mise en place d'un projet handicap. 
Les vidéos du concours 2016-2017 (saison 5) sont disponible en ligne (ici).
L'ENSC travaille depuis longtemps à la question de la facilitation de la vie des personne en situation de handicap. Véronique Lespinet, en charge du domaine Santé-Handicap, a coordonné cette année la production des élèves de l'école qui viennent d'être récompensés, lors de la cérémonie officielle du 30 mars 2017, par le prix du jury "Vie professionnelle".
Un grand bravo à tous ceux qui se sont associés à cette entreprise.

18 mars 2017

IA - SHS : Des robots tueurs ... des cols bleus.

Daron Acemoglu est professeur d'économie au Massachusetts Institute of Technology où il est titulaire de la "chaire Charles P. Kindleberger". il vient de publier, avec l'un de ses doctorants aujourd'hui assistant à la Boston University, Pascual Restrepo, l'une des études les plus détonantes sur l'emploi et la robotisation aux États Unis.
En mai 2016, les deux scientifiques publiaient des travaux de thèse selon lesquels l'apparition des robots dans un secteur se traduirait par une création d'emplois qualifiés. Ils formulaient alors l'hypothèse que ces nouveaux emplois "recycleraient" d'anciens métiers, notamment manuels, et que la transition avait tout lieu d'être bénéfique à la fois sur le nombre d'emplois, la qualification des personnes et leur niveau de rémunération.
Dans une publication datée du 17 mars 2017 (ici), les deux scientifiques reviennent sur leurs prévisions et constatent à partir d'observations chiffrées de l'emploi industriel aux États-Unis entre 1990 et 2007, que la robotisation a indéniablement eu un effet négatif sur l'emploi et les salaires.
Ainsi, la création d'emplois liés à la robotisation est loin de compenser la perte des postes d'ouvriers, et, si les robots créent des postes, pour leur maintenance, leur gestion opérationnelle et dans le domaine économique à la fois pour leur investissement, leur maintien et leur amortissement, le meilleur gain de productivité pour l'industriel réside dans la suppression de main-d’œuvre.
Selon leur étude, les robots ont supprimé quelque 670 000 postes sur la période considérée, avec un taux évalué à 6,2/1000 postes disparus pour chaque robot industriel. Comme le développement et l'installation de ces robots sont entrés dans une logique de l'exponentiel dans laquelle l'évolution de la robotisation dépasse largement le temps nécessaire aux humains pour se former et augmenter leur expertise, nous sommes donc littéralement aujourd'hui au-delà d'un point de singularité où la disparition des emplois va s'accélérer. De manière concourante, et contrairement à toutes les autres prévisions, la robotisation a entraîné les salaires vers le bas. Une baisse de 0,7 % constatée sur le strict domaine de l'étude des chercheurs s'explique selon eux par la baisse du besoin de main-d’œuvre, l'augmentation du nombre des chercheurs d'emploi, et la baisse de demande sur le marché du travail. Cela entraînerait alors des effets cumulatifs tels que la baisse du niveau de consommation dans le bassin d'emploi et donc celle de l'attractivité générale et des services.
Cette constatation alarmante apparaît alors que, après une première période de robotisation commencée dans les années soixante pour la substitution des tâches simples, de manutention puis opérationnalisation mécanique, instrumentale puis plus récemment agricole, une seconde période s'ouvre avec une ouverture du domaine robotique à des tâches de haute qualification : diagnostic, finance, loi, médecine, biologie, chirurgie, commerce en ligne, livraison par drones, etc. Le constat était jusqu'ici politique, avec un rapport de la commission européenne recommandant de taxer la productivité des robots au même titre que celui des opérateurs humains. Le débat est entré dans le domaine politique français avec des déclarations récentes de certains candidats à la présidence de la République. Le débat prend, à notre sens, beaucoup trop de temps par rapport à la logique de l'exponentiel à laquelle est soumise la robotisation. Force est donc de constater que cette publication apporte un regard objectif à un domaine en débat, ou les convaincus d'une paupérisation des emplois s'opposent aux partisans d'une libération du travail ou à ceux du toujours plus de revenus pour soi au détriment de ceux qui donc s'appauvrissent en même temps. Le débat n'est pas nouveau, il a été connu pour toutes les périodes de l'industrialisation, de l'époque de Ludd aux récentes grandes crises qui sont à l'origine de la surprise des dernières élections présidentielles américaines.

Peut-être serait-il utile de ramener un peu de raison dans ces débats de chiffonniers politiques en redonnant quelques crédits aux scientifiques pour voir ce qui se passe réellement en France et en Europe dans le domaine.

10 janvier 2017

BIO - SHS : Petit traité de l'espace - Conférence de Michel Denis


Rencontre avec Michel Denis à la Librairie Georges de Talence
Mercredi 18 janvier à 18h

Michel Denis est directeur de recherche émérite au CNRS. Ses travaux ont porté sur le rôle de l’image mentale dans la cognition humaine et plus spécialement sur la construction d’images mentales à partir du langage. Ses intérêts se sont étendus par la suite à la cognition spatiale, notamment au rôle de l’image et du langage dans l’élaboration des connaissances spatiales, ainsi qu’à la construction de systèmes d’aide verbale à la navigation. Avec ses collègues du CEA, il a mené les toutes premières études françaises sur l’imagerie mentale utilisant des techniques d’imagerie cérébrale fonctionnelle. Il a mené également des travaux utilisant la réalité virtuelle dans l’étude des processus responsables de la construction des connaissances spatiales.

Michel Denis a publié Petit traité de l’Espace aux éditions Mardaga (2016).
"Tout être vivant inscrit son activité dans l’espace. Environnements proches accessibles à notre vue, environnements lointains, villes, continents... Nous explorons l’espace en le traversant, mais aussi en écoutant les descriptions qui nous en sont faites, en étudiant cartes, atlas ou supports numériques. Nous mémorisons des itinéraires, nous comparons des distances, nous retrouvons notre point de départ après un long trajet. Nos capacités de raisonnement nous permettent d’imaginer des raccourcis, de créer de nouveaux parcours, en un mot, de manifester notre adaptation à l’environnement. Les technologies numériques étendent cette capacité en offrant à l’individu de nouvelles formes d’assistance au déplacement. Ces dispositifs sont particulièrement utiles pour les personnes souffrant de déficits visuels ou encore d’atteintes neurologiques spécifiques.
Quelles capacités mentales l’individu doit-il mobiliser lorsqu’il est confronté à l’espace ? Quelles fonctions cérébrales met-il en œuvre ? La psychologie et les neurosciences jouent un rôle primordial pour répondre à ces questions, comme en témoignent plusieurs chapitres de ce livre. Mais un ouvrage consacré à l’espace doit aussi donner leur place à d’autres disciplines concernées par la question : la géométrie, la géographie, l’urbanisme, l’architecture, la peinture, le cinéma, etc. Les sciences du langage participent elles aussi à ce concert scientifique, lorsqu’elles analysent la manière dont l’art littéraire est mis au service de la description de l’espace. Enfin, les systèmes d’aide à la navigation, la robotique, la réalité virtuelle constituent des domaines privilégiés d’application des connaissances touchant à la représentation de l’espace.
L’espace est donc au carrefour de nombreuses disciplines. Pour la première fois, un ouvrage de synthèse révèle la manière dont chacune apporte son éclairage à la compréhension des conduites de l’être humain au sein de son environnement." (source Mardaga)
Lien vers le site de l'éditeur (ici).
La rencontre sera animée par Bernard Claverie, directeur de l'ENSC.

La Librairie Georges et le Café de Georges. 300, cours de la libération. TALENCE
0556046800 / www.librairiegeorges.com 

IA : le test de Turing n'est plus ce qu'il était.

Le test de Turing consiste, pour une intelligence artificielle, à tenter de se faire passer pour un humain, sans qu'un autre humain ne découvre qu'il ne s'agit pas, justement, d'un homme ou d'une femme. De nombreux commentaires ont été établis à propos de ce test qui, à l'époque de Turing, représentait une "expérience de pensée". Les informaticiens, portant les philosophes au mot, en ont fait un test permettant de sanctionner une frontière de performance des systèmes informatiques.
C'est à ce propos que Ashok Goel, professeur de "Computer Science and Cognitive Science" (lien) à la "School of Interactive Computing" de GeorgiaTech (Georgia Institute of Technology) d'Atlanta (GA, USA), a piégé ses étudiants en les mettant en relation toute l'année avec son assistante d’éducation, Jill Watson. Celle-là gérait les emplois du temps de la filière, et s’occupait de contacter les étudiants par email au sujet des dates de rendus de devoir et autres contacts pour leurs travaux. Elle a pu ainsi échanger quelque 10 000 messages avec les étudiants en un semestre. Or, Jill Watson est une intelligence artificielle qui s'appuie sur le site Piazza (plateforme de question-réponse) enrichie de 40 000 messages différents. Fille Watson ne répondait que lorsqu'elle évaluait sa propre crédibilité à ses réponses à plus de 97 %. Elle a été en mesure d’adresser 40 % des demandes des étudiants.
Le projet est maintenant d'introduire une procédure"dure de "double aveugle" en changeant de manière indépendante une vraie assistante d"éducation et un robot intelligent de répondre aux étudiants, sans préciser qui est qui (ou quoi ...).
La question que pose cette expérience et cette nouvelle utilisation du Test de Turing est celle de la validité de l'intelligence artificielle ou de la mesure d'une forme de "non intelligence naturelle" des fonctions que l'on confie aux humains. En effet, le test devient ici indice non pas de l'intelligence d'une machine mais de la qualification d'une forme de pauvreté du travail confié à certains opérateurs. Si une machine est capable de remplacer une personne, ce n'est pas forcément parce qu'elle est intelligente, mais probablement plus parce que la personne ainsi substituée est exploitée et cantonnée dans des taches de faible qualité cognitive. Dans l'idée de Turing, le test était une épreuve métaphorique virtuelle permettant de définir l'intelligence automatisée, et non pas un "indice de disqualification" des travaux confiés à des personnes dont on devra mesurer les conséquences "humaines" de cette disqualification.
De quoi nous remplir d'effroi lorsqu'on pense que Watson ambitionne de remplacer les médecins, les banquiers (là on peut comprendre) et les artistes, que certains grands avionneurs veulent supprimer les pilotes et que la robotique s'étend aux robots artisans, aux cobots industriels, et aux robots compagnons voire amoureux ...
(lien).

14 octobre 2016

DIV : A quand l'anthropocène ?

Il était un élément de la nature, il en est devenu l'acteur de sa profonde modification. L'Homme a commencé par la cultiver, élevant les animaux et semant les végétaux pour en régler la reproduction. Puis il l'a exploité à travers mines et prélèvements, pillant les sols comme les mers, influençant le climat, devenant le superprédateur détruisant la biodiversité à qui l'on doit le basculement du Monde dans une rupture écologique majeure: l’anthropocène.
Après le pléistocène et l’holocène qui sont les deux premières divisions de l’ère quaternaire, voici que la Terre entre dans une nouvelle époque géologique.
Mais, depuis quand compter ce basculement.
La rigoureuse Commission pour la stratigraphie du quaternaire de l’Union internationale des sciences géologiques doit se prononcer sur la question. Et la tâche n'est pas facile, car fixer une nouvelle époque géologique doit se faire relativement à des marqueurs. jusqu'ici ils sont de nature physico-chimique, comme révélateurs d'un changement sur l’ensemble de la planète.
Lequel sera adopté pour l’anthropocène?
Les premiers à avoir théorisé la chose sont les anthropologues qui attribuent à l'homme la responsabilité du basculement avec les débuts de l’agriculture, il y a 8 000 ans.
Plus récemment, Paul Crutzen et Eugene Stoermer ont proposé en l'an 2000 que l'on adopte l'année 1784, c'est-à-dire celle de l’invention de la machine à vapeur. et du début de l'industrialisation, polluante, pillant les ressources pour ses productions, s'accompagnant des évolutions sociales et économiques qui mettent la nature au service d'une idée que l'on se fait de l'homme indépendamment de la planète ramenée au statut d'objet de transformation. Depuis cette date, l'homme a relâché 1000 milliards de tonnes de CO2 dans l'atmosphère, et il lui faut aujourd'hui moins de huit mois pour utiliser la totalité des ressources naturelles renouvelables que la planète peut produire en un an. C'est-à-dire qu'il vit à crédit.
D'autres scientifiques, notamment ceux de l’université de Leicester, détermine le basculement plus scientifiquement à compter de la date de dispersion des radionucléides artificiels sur toute la surface de la planète, où ils seront encore mesurables dans des milliers, voire pour certains des millions d’années. Cette date est le 16 juillet 1945: celle de la première explosion d’une bombe atomique.
À partir de cette catastrophe, au sens mathématique du terme, les mesures ont révélé dans l'air, les océans et les sols, que c'était l'année 1964 qui montrait le maximum de concentration en radionucléides et polluants chimiques persistants. C'est donc aussi une date intéressante pour fixer la frontière du basculement.
En début d'année 2016, des géographes anglais, Simon Lewis et Mark Maslin, ont proposé la date de 1610 comme celle de la découverte de l’Amérique et de la catastrophe écologique majeure et irréversible qui s'est ensuivie. Apportant leurs microbes dans le Nouveau Monde, les Européens ont été la cause de la chute des civilisations et des populations américaines, passant de 54 millions d’individus en 1492 à 6 millions en 1650. Soixante-cinq millions d’hectares de terres agricoles ont alors été abandonnés à la forêt et à la nature qui a ainsi stocké dans les végétaux le CO2 atmosphérique. Conséquence: une concentration de CO2 la plus faible de tout l’holocène (271,8 parties par millions, contre 400 ppm aujourd'hui), entraînant la réduction majeure de l’effet de serre et provoquant un "petit âge glaciaire" en 1610.

Alors, que choisir: -8000, 1610, 1784, 1945, 1964, ou simplement 2016, l'année de la décision arbitraire d'une instance internationale dont l'activité symbolique n'affectera pas, gageons-le, l'évolution de notre planète prise dans des logiques et des intérêts bien supérieurs à la raison. Peut-être, comme le prédisent les transhumanistes, la technologie nous permettra-t-elle de réguler tout cela pour repousser la frontière de la fin de l'anthropocène, celle de la disparition de l'homme classique.
Voir "La géologie de l’humanité : l’Anthropocène " par Paul J. Crutzen (lien), et le dinoblog (ici).

13 octobre 2016

DIV : Deux mille milliards de galaxies.

On en comptait jusqu'ici deux cents milliards. Voilà que l'erreur est corrigée (ici), avant d'en trouver d'autres : 2.000 milliards de galaxies.
Dans une étude publiée jeudi 13 octobre 2016, l'équipe du professeur Christopher Conselice, de l'Université de Nottingham (Grande-Bretagne), a montré à partir d'images en 3D issues données du télescope spatial Hubble qu'une simple extrapolation du nombre de galaxies présentes à différentes époques de l'histoire de l'Univers permettait de multiplier raisonnablement par dix le nombre jusqu'ici admis de galaxies de l'univers. La méthode consiste à utiliser des statistiques connues de ce que l'on connaît de l'Univers proche pour deviner ce qui se passe plus loin. Et si les télescopes actuels ne permettent d'étudier que 10% des galaxies, c'est que nous sommes loin de la fin du travail, avec 90% des galaxies du cosmos qui restent encore à être étudiées. Pour cela, il ne reste plus qu'à attendre la nouvelle génération de télescopes (voir  icigéants qui permettront de voir les régions lointaines. Ainsi, le Télescope géant européen E-ELT (European Extremely Large Telescope) est en train d'être construit au Chili par l'Observatoire européen austral (ESO) qui doit entrer en service en 2024 ou 2025. Son miroir primaire aura un diamètre de 39 mètres. Les USA  construirsent  à Hawaï le Thirty Meter Telescope (TMT), doté d'un miroir segmenté de 30 mètres.
De quoi observer les premier pas de la fusion inéluctable de la Voie Lactée et de la galaxie d'Andromède qui vont ainsi former une nouvelle galaxie ... dans 3 à 4 milliards d'années ...
De quoi surtout réfléchir à la certitude en science contrainte par les contraintes de la mesure.

05 août 2016

BIO : Tout va bien chez les branquignoles !!!

Après le succès d'un "Intelligent Design", mouvement théiste, en fait une espèce de procédure perverse pour insérer sous couvert de scientisme le coin des théories créationnistes dans l'édifice de la science, voilà que la compagnie des branquignolles invente une forme de déisme intitulée "Soft Overlap". C'est à peu près pareil, sauf que les scientifiques qualifiés d'incurables par les fondamentalistes de tout poil sont maintenant tenus de discuter d'une prétendue complémentarité entre science et religion. 
Rien ne les arrête pour pervertir la pensée des jeunes, cachetonner quelques biffetons et conquérir les territoires des lumières que nos politiques semblent parfois abandonner. Encore une histoire de hussards de la République, bien seuls et fatigués de ferrailler pour ceux qui portent des Rolex et autres bidules, brandissent des lois et prennent des arrêtés, plutôt que de rêver d'intelligence, de progrès et d'enseignement républicain.

06 juillet 2016

DIV : Le "Carnot Cognition" labellise un consortium piloté par l'ENSC - STAH

Le 6 juillet 2016, le Ministre délégué à l'Enseignement Supérieur et à la Recherche a annoncé la labellisation des "Instituts Carnot" (ici).
Parmi les lauréats, le "Carnot Cognition", labellisé "Tremplin Carnot".
Les « technologies cognitiques » désignent toutes les technologies d'interaction avec l'homme ou entre humains, qui engagent, aident, augmentent ou modifient les fonctions cognitives. Le "Carnot Cognition" est destiné à les assoir en mobilisant un consortium de 14 laboratoires engagés dans l’innovation des entreprises françaises par les produits et services prenant en compte de la dimension cognitique de l’humain (usager, utilisateur, client, décideurs, citoyens, etc.). 


Ces 14 laboratoires interdisciplinaires dépendant de 19 tutelles, et se sont organisés en 4 pôles pour participer à une démarche et une logique d’entreprise pour la recherche contractuelle en sciences de la cognition et technologies cognitiques.

Il prend pour point de repère l’expérimentation à Bordeaux de la chaire industrielle STAH (Systèmes Technologiques pour l’Augmentation de l’Humain) de l’ENSC (Ecole Nationale Supérieure de Cognitique – Bordeaux INP), qui a promu une offre de recherche contractuelle tirée par la demande industrielle : 75 entreprises, 17 prospects, 25 propositions, 8 projets, 4 ETP non-permanents - CA : 150K€, 8 start-up et 40 emplois créés à l’ENSC.
Le Carnot Cognition s’appuie sur un engagement des tutelles bien ancrées dans les stratégies de partenariat, avec un leadership du CNRS qui s’implique totalement dans l’institut (support par la DR15 du CNRS). Le directeur du réseau est issu de l’industrie en ayant une expérience académique de recherche scientifique. Il dispose des moyens de la chaire STAH à l'ENSC qui héberge cette direction.
L’offre technologique du Carnot vers les entreprises est la suivante :
A.—Les objets et environnements intelligents : 1.Systèmes autonomes et semi autonomes ; 2.Transport urbain intelligent; 3.Humain dans l’entreprise du futur ; 4.Habitat, architecture (Domotique) ;
B.—L'humain démultiplié et renforcé : 5.Interfaces homme-systèmes avancées (IHM, robotique cognitive) ; 6.Les systèmes et dispositifs médicaux personnalisés ; 7. Education, formation, apprentissage (serious games,…) ; 8.Accessibilité, inclusion, qualité de vie, autonomie (vieillissement) ;
C.—Les humains (inter)connectés : 9.Aide à la décision collective (Risque, sécurité) ; 10. Humain en société (Finance, économie, éthique, droit) ; 11. Cognition de groupe (réseaux sociaux, jeux,…) ; 12. Eco-humain (Energie, Nutrition, Objets/Humains connectés …)
Le siège social est établi 40 avenue d'Iéna, 75016 Paris - la direction à l'ENSC, 109 avenue Roul, 33405 Talence.

13 juin 2016

IA - BIO : De Iron Man à Yvan le Terrible - les humanoïdes russes.

La guerre a ceci de dramatique, elle est mortelle. Une des solutions prônées contre cette caractéristique inacceptable est de remplacer les combattants par des robots. L'humanoïde guerrier est conçu pour cela : remplacer les humains dans les zones à risques de combats, d'explosions, d'incendies ou de radiations ionisantes.
Deux voies sont aujourd'hui étudiées au-delà de la simple solution du scaphandre adoptée par les américains, solution qui peut s'apparenter à la problématique de l'avion, du char d'assaut ou de l'exosquelette blindé qui ne sont, en fait, que des cobots de prolongation de l'aptitude humaine ou d'augmentation sensor-comportementale, permettant une protection de l'homme qu'ils abritent. La première consiste à développer des robots autonomes qui vont, comme des machines indépendantes dotées d'intelligence embarquée ou en réseau tels certains drones de surveillance aériens, maritimes ou terrestres. La seconde consiste à développer des humanoïdes non autonomes mais contrôlés à distance par un opérateur. Dans ce dernier cas, on peut imaginer cet opérateur immergé dans un environnement virtuel réaliste, doté d'une combinaison bardée de capteurs qu'il revêt et qui transfère l'intégralité de ses mouvements à l'automate.
La Russie a annoncé le développement de son arme "Iron Man", dite "Ivan le Terrible" en référence au célèbre tsar de Russie. 
Développé par la Fondation russe pour les études avancées, l’équivalent de la Darpa américaine ou de la DGA française, Iron Man a été présenté officiellement la semaine dernière à la presse russe. Le quotidien Komsomolskaïa Pravda rapporte que le développement de la robotique militaire est l’une des priorités russes et que plusieurs dizaines d’entreprises sont impliquées dans le projet. Son but est de remplacer les personnes qui se situent dans les zones de combats ou dans les zones d’urgence en toute sécurité pour les humains. Le prototype est doté d'éléments autonomes mais reste globalement contrôlé par un opérateur qui porte une combinaison de commande des mouvements. Le but à court terme est de réussir une course sportive et de franchissement d’obstacles, avec conduite automobile.
Selon le quotidien, Iron man n'est qu'un élément d'une stratégie globale de développement de drones terrestres, marins et aériens, de véhicules et d'opérateur humanoïdes robotisés, et qui vise à rattraper le retard russe en la matière sur ses concurrents américains et asiatiques.
Voir une vidéo de présentation (ici).

TECH : Des drones de transport maritime sur une mer sans hommes.


L’équipe Ocean Blue d’Alesund (Norvège), équipe de R&D de Rolls-Royce, et des chercheurs d'un consortium academique associant plusieurs université finlandaises (Tampere University of Technology, VTT Technical Research Centre de Finland, Åbo Akademi University, Aalto University, University of Turku) et un cluster maritime associant Rolls-Royce, NAPA, Deltamarin, DNVGL et Inmarsat, ont réalisé un ensemble allant de la construction à l'exploitation en passant par la navigation de prototypes de drones de transport maritime (voir annonce).
De tels "navires fantômes" seraient plus sûrs, en assurant une plus grande sécurité aux marins, en faisant accompagner leurs navires par une flotte entièrement autonome, ou même permettre à des capitaines restant à terre de commander à distance leurs cargos depuis un centre de contrôle. Ils seraient également moins chers à la construction et moins polluants. Le but principal reste cependant financier, avec une une économie estimée à 375 milliards de dollars, selon l’entreprise. Ils pourront ainsi être déployés dans des régions inhospitalières telles que la mer Baltique ou pour les ,nouvelles routes du grand nord. 
Si le problème technologique semble en passe d'être résolu, les dimensions humaines et socio-économiques ne le sont pas. Ainsi, es syndicats représentant le million de marins concernés s’opposent à ce projet, d’après le vice-président de l’innovation maritime de l’entreprise, Oskar Levander. De même, les compagnies maritimes, les ports, mais également les assureurs et les organismes de réglementation doutent de la réalisation du projet à court terme. 
Pour Océan Blue, les cargos fantômes seraient complètement chargés de conteneurs. Le pont et les autres systèmes dévolus à l’équipage (habitat, génératrices d'électricité, chauffage et climatisation, eaux courantes et usées, réserve alimentaires et cuisines, etc.) seraient supprimées et remplacés par une quantité plus importante de marchandises, minimisant les les coûts et augmentant les recettes. Ces drones seraient ainsi 5 % plus légers et consommeraient 12 à 15 % en moins de carburant. L'absence d’humains à bord supprime les risques de santé et de sécurité (accidents, tempêtes, piraterie…). 
Rolls-Royce et son consortium se place ainsi dès aujourd'hui en leader dans une compétition maritime à vocation de transport qui pourrait bien bouleverser l’industrie et l'économie maritime.
Voir la galerie de photos des vaisseaux et salles de contrôle du programme "ship intelligence" (ici).