Villes et Révolution Numérique. « Le XIXe siècle était un siècle d’Empires ; le XXe siècle, celui des États-Nations. Le XXIe siècle sera un siècle de villes. ». Wellington Webb, ancien maire de Denvers, en 2009.
Légende Image. Et si nous devenions une société de Schtroumpf numérique ? « Je vois une foule innombrable d’hommes semblables et égaux qui tournent sans repos sur eux-mêmes pour se procurer de petits et vulgaires plaisirs, dont ils emplissent leur âme. » écrivait Alexis de Tocqueville dans « Démocratie comme despotisme » (1840). A lire l’essai « Schtroumpfologies », d’Antonio Dominguez Leiva et de Sébastien Hubier sur le succès médiatique de la bande dessinée par la multiplication de communautés interprétatives sur les réseaux sociaux. (@Libe). A écouter : De quoi Schtroumpf est-il le nom ? (@franceculture).
#Ville
« Open data » : qui pilotera les villes de demain ? L’ouverture des données de transport est devenue l’une des clés de l’innovation et l’enjeu de batailles économiques. Elle bouleverse aussi la gouvernance des villes. Métro, vélo, auto ? Pour se déplacer en ville et repérer le mode de transport le plus adapté à la météo et aux circonstances, une application fiable est devenue l’indispensable boussole des citadins. Selon une étude publiée sur le site Science Advances, en février, 80 % des trajets possibles dans les métropoles excèdent les capacités de calcul d’un cerveau humain. Il n’est donc pas étonnant que les données de mobilité urbaine fassent l’objet d’une âpre bataille dont le vainqueur pourrait bien être le véritable pilote de la ville de demain. (@lemondefr).
A Lille, la data du débit de l’eau. La Métropole européenne de Lille (MEL) a présenté, le 10 octobre, un centre de commandement vers lequel remontent en temps réel les informations relatives au réseau d’eau potable de soixante-deux communes. Un nouvel outil de pilotage conçu par Veolia en partenariat avec IBM, dans le cadre d’une délégation de service public. Le directeur du centre, Paul Mousty, les appelle ses « oreilles électroniques » : un millier de sondes sont en cours d’installation sur les canalisations pour « écouter les tuyaux ». L’objectif est de réduire les pertes de 3 millions de m3 par an. Avec les capteurs des châteaux d’eau, les compteurs connectés des bâtiments collectifs et les sondes chargées de mesurer la qualité de l’eau, des dizaines de milliers de données sont produites chaque jour. (@lemondefr).
Singapour, « banc d’essai » de la ville digitale. Lancé le 24 novembre 2014 par le premier ministre de la cité-Etat de Singapour, Lee Hsien Loong, le programme Smart Nation organise le recueil et le traitement de toutes les données possibles dans l’intention d’« offrir des services de qualité aux citoyens ». Dans un premier temps, un laboratoire de planification digitale a été constitué autour d’un petit groupe de spécialistes. « Sa mission est, depuis le départ, de rendre le big data facile à comprendre et à visualiser, nous a expliqué son directeur, Benjamin Chan Khoon-Loong. Nous permettons à tous les planificateurs de la ville d’accéder aux données et de les utiliser. »Dans cette optique, les employés de la ville ont été et sont formés à la collecte et à l’exploitation de séries de données. (@lemondefr). A lire aussi : Tan Kok Yam (Singapour) : « Singapour a investi 2,8 milliards de dollars dans les technologies de l’information cette année » (@journaldunet).
Prix « Le Monde » de la recherche 2016 : aménager les villes grâce aux algorithmes. Chaque jour, sans en avoir conscience, la moitié de la population mondiale pose le pied sur l’un des puzzles les plus fascinants que l’humanité ait construits : la ville. Et bien qu’elle nous soit familière, nous sommes loin d’en connaître toutes les pièces et la façon dont elles s’emboîtent. Cette ignorance se manifeste dans notre incapacité à construire des villes en partant de rien, ou dans les conséquences catastrophiques de certains projets d’urbanisme. En l’absence d’une connaissance fiable, les politiques d’aménagement ne peuvent en effet que se fonder sur des intuitions, des critères simplistes, voire idéologiques. Mais ceci est en train de changer. Grâce à la numérisation des données traditionnelles (enquêtes statistiques, cartes, images satellites, etc.), et aux traces numériques laissées par chaque individu, la quantité de données disponibles sur les villes augmente à une vitesse inouïe. C’est sur cette masse de données que s’appuie une nouvelle science – multidisciplinaire – des villes. (@LeMondefr).
La deuxième vague de l’opération Data City est lancée. « La ville est une énorme productrice de données. L’analyse de cette information permet de rendre la ville plus inclusive, résiliente, ouverte et efficace », a déclaré Jean-Louis Missika, adjoint à la maire de Paris, chargé de l’urbanisation, des projets du Grand Paris, du développement économique et de l’attractivité, en amont du lancement officiel de la deuxième édition de l’opération Data City, organisée par l’incubateur de startups NUMA et la Ville de Paris. Un programme d’innovation ouverte qui allie startups et grands groupes dans un travail de recherche de solutions innovantes au service de la ville. (@latribune).
#Data
Les dangers et les incongruités du big data. Pour la première fois cette année, le big data est devenu un acteur important – et controversé – dans deux scrutins majeurs, la présidentielle américaine et le référendum sur le Brexit au Royaume-Uni. Aux Etats-Unis, les démocrates avaient une longueur d’avance sur les républicains en matière de ciblage fin des électeurs, y compris sur l’historique de leurs votes : depuis la première campagne présidentielle de Barack Obama, ces techniques ont été perfectionnées. L’exploitation de ces masses de données n’a pas fait de miracle pour Hillary Clinton, qui n’a pas réuni suffisamment de grands électeurs, bien qu’elle ait remporté le suffrage populaire, dans les villes surtout. Elle avait à peine concédé la victoire à Donald Trump que les réseaux sociaux étaient accusés d’avoir influencé le scrutin, en laissant figurer quantité d’informations mensongères sur leurs fils d’actualité. (@lemondefr).
#Economie
Uber, prochaine faillite du siècle ? Créé il y a 7 ans, Uber est devenu rapidement un modèle pour de nombreuses startups et on ne compte plus les “Uber-like”. En dépoussiérant le secteur du taxi, et en profitant des nombreuses grèves qui ont offert une publicité gratuite au service de VTC, Uber est devenu un acteur majeur du monde technologique, valorisé aujourd’hui près de 70 milliards de dollars. Rien ne semble pouvoir arrêter la firme californienne. Et pourtant, derrière la vitrine médiatique, le colosse pourrait se révéler plus fragile qu’il n’y parait. Et si, comme le prédisent certains économistes, l’aventure Uber se terminait par une faillite ? Article initialement paru sur Medium par Pierre André, cofondateur de WeCasa. (@bymaddyness).
#IntelligenceArtificielle
« Paris, fer de lance de la deep tech ». Aujourd’hui plus que jamais, lorsque je pense à Paris, je visualise des machines intelligentes, des robots dotés d’émotions et des technologies de réalité virtuelle. Cette nouvelle vague de technologies de pointe (deep tech), dont Paris est devenu le fer de lance, va bouleverser nos existences à bien des égards. Il y a un énorme potentiel économique pour la France, si elle sait profiter de cette vague. La France, et plus particulièrement Paris, se targue de compter dans ses rangs des entrepreneurs et des scientifiques de renommée mondiale. Et l’on peut désormais imaginer l’implantation d’une entreprise pesant plusieurs milliards de dollars à Paris, une idée totalement insensée il y a encore cinq ans… Deux signes majeurs annoncent que la lame de fond est en formation et qu’elle pourrait placer la capitale française comme le creuset des grands leaders qui révolutionneront le secteur des high-tech dans les dix ans qui viennent. (@LesEchos).
#MinorityReport
Des criminels potentiels identifiés par un algorithme : une pente savonneuse ? Et si demain, Big Brother allait de pair avec Big Data ? Imaginez un futur dystopique à la Minority report, où les traits de chacun, connus par les machines grâce à l’omniprésence des caméras de vidéosurveillance, seraient méticuleusement scannés par des algorithmes cherchant à identifier les criminels potentiels. Une perspective qui a de quoi faire froid dans le dos. C’est pourtant une application technologique de ce type qu’envisagent Xiaolin Wu et Xi Zhang, chercheurs en informatique à la Shanghai Jiao Tong University (le premier étant également Professeur à l’université de McMaster au Canada), à travers un article pré-publié sur arXiv. (@Sciences_Avenir).
Detecter-les-crimes-grace-aux-algorithmes-predictifs. « Dans dix ans, cette industrie comptera moins d’employés qu’aujourd’hui », explique Alf Göransson, le patron de Securitas. Depuis dix ans, il observe autant qu’il oriente le « changement radical » du secteur de la sécurité. Reconnaissance faciale et détection des comportements suspects, « nous pouvons utiliser des caméras intelligentes pour détecter le crime avant qu’il se produise » et il ajoute : « Si vous pouvez empêcher un meurtre, un viol ou un attentat simplement en vous servant de la technologie, à mon avis, c’est bien ». Ainsi « la tendance en Europe et en Amérique du Nord est d’autoriser de plus en plus de caméras afin de réduire la criminalité ». (@lp_techno).
Un réseau neuronal apprend à reconnaître les criminels par leurs visages. Vers la fin du 19e siècle, le criminologue italien Cesare Lombroso a mis au point une théorie voulant que la nature criminelle d’un individu soit une classe héréditaire pouvant être distinguée par l’apparence physique. Cette théorie a par la suite été discréditée de manière virulente par le criminologue anglais Charles Goring, après que celui-ci ait analysé statistiquement les données liées aux anomalies physiques auprès de criminels et de non-criminels. Il conclut que la méthode de Lombroso ne pouvait expliquer la criminalité que très marginalement, et que les différences statistiques des deux catégories d’individus étaient insignifiantes. Ce débat vient de ressurgir dans la communauté scientifique. Alors que des chercheurs de l’Université Jiao-Tong de Shanghai ont déposé une étude s’appuyant sur cette même théorie. Les chercheurs Xiaolin Wu et Xi Zhang ont ainsi mis au point un réseau neuronal conçu pour analyser « la courbure des lèvres, la distance du coin interne de l’œil, et ce que l’on surnomme l’angle du nez et de la bouche » de visages afin d’identifier la nature criminelle d’une personne. L’algorithme a été en mesure de reconnaître avec succès des criminels 89% du temps, simplement en évaluant leurs yeux, nez et bouches sur un ensemble de photos d’identité. Intitulée Automated Inference on Criminality using Face Images, l’étude en question, qui doit toujours être évaluée par des pairs, décrit comment l’équipe a entraîné un algorithme à analyser une collection de photos d’identité d’hommes âgés de 18 à 55 ans. (@BranchezVous).
#Piratage
Une cyberattaque sur quatre réussit en France (Accenture). C’est une nouvelle statistique inquiétante pour les entreprises. Plus d’une attaque ciblée sur quatre a abouti à une violation effective des dispositifs de sécurité au cours des douze derniers mois en France, selon une étude du cabinet de conseil Accenture. L’enquête a été menée auprès de 2.000 dirigeants, en charge de la sécurité dans les entreprises réalisant un chiffre d’affaire d’au moins un milliard de dollars et basées dans 15 pays, dont la France (124 répondants). Douze secteurs sont concernés par cette enquête : assurance, banque, marchés de capitaux, communication, énergie, santé, hautes technologies, sciences de la vie, produits de consommation, équipement industriel, distribution, utilities. (@latribune).
#Marque
Amazon va (enfin) s’attaquer à la contrefaçon. Faux sac pour y glisser des faux cosmétiques, faux chargeur quand le faux smartphone est à court de batterie, fausse copie d’un vrai produit de marque, faux commentaires et fausses notes mais vrai argent. Sur Amazon, le site aux 300 millions de produits listés, la contrefaçon est devenue endémique. Relativement silencieux sur le sujet, le plus grand site d’e-commerce au monde a désormais décidé de lutter activement contre ce fléau qui peut coûter très cher aux vendeurs, révèle Bloomberg. (@latribune).
#TransformationNumerique
Les laissés-pour-compte du numérique, un défi pour l’État. Si les services administratifs (Pôle emploi, impôts, Sécurité sociale…) ne cessent de se dématérialiser, une frange non négligeable de la population reste déconnectée. Pour ne pas les isoler davantage, l’État dévoile enfin sa stratégie d’inclusion numérique, qui s’inspire très largement de l’esprit de l’initiative French Tech. L’objectif : fédérer à moindre coût les acteurs éparpillés de la médiation numérique dans l’espoir d’insuffler une dynamique. Trop peu, trop tard ? (@latribune).
#Musique
En marge des Transmusicales, la French Tech (désigne tous ceux qui travaillent dans ou pour les start-up françaises) organise à Rennes son événement annuel, DigtalTech, autour de l’intelligence artificielle et la musique. Une dose d’intelligence artificielle est introduite dans la génération d’images qui accompagne les sets des DJ’s, on est en droit de se demander si, demain, la programmation des Transmusicales sera composée par une IA. (Soyons smart! – @france3Bretagne).
#Culture
C’est un livre numérique qui modifie l’histoire en fonction de l’environnement du lecteur. C’est l’innovation mise au point par une start-up de Toulouse, Via Fabula. Après le succès mondial de son premier livre adaptatif, un second ouvrage destiné aux enfants vient de sortir. (Tout ce qui buzz– @France3MidiPy).