Quelles langues parlent les développeurs ?

HTML et CSS sont la base de tout développement web, mais vers quels langages se dirigent la plupart des développeurs français pour leur réalisation ? C’est la question que s’est posée la startup CodinGame ce mois-ci en interrogeant plus de 9000 développeurs dans 120 pays différents.
Le Javascript haut la main !
Avec plus de la moitié des réponses à son actif, le JS est bien loin devant démontrant ainsi l’intérêt majeur des projets web dans le monde du développement. Avec son infinie puissance côté serveur comme côté client, il est le langage le plus utilisé. En revanche, il n’est pas le plus prisé pour le code puisqu’il se voit recaler à la troisième place derrière le Python et au même rang que le Java.
Autrefois utilisé dans les domaines de l’éducation et de la recherche, le Python n’est pas en reste non plus avec sa troisième place au classement des langages les plus utilisés. On l’associera bien sûr à la pleine croissance de l’intelligence artificielle pour laquelle il s’avère être un redoutable environnement pour le machine learning.
Un langage oui, mais dans quel but ?
Le temps du développement web et mobile est maintenant largement dépassé par l’intelligence artificielle avec le machine learning et par le développement de jeux. La recrudescence d’objets connectés et de robots tous plus opérationnels les uns que les autres a fait grimper ce marché de la réalité virtuelle et du « numérique intelligent » faisant chuter directement des domaines comme le Big data ou la cybersécurité qui ont eu le vent en poupe durant un temps.
Quid du PHP dans tout ça ? Alors que la version 7.4 est prévue pour la fin d’année, il faut croire que l’éléphant de Rasmus Lerdorf fait peur à beaucoup de développeurs. Il figure parmi les langages les plus redoutés devant le Javascript et le Java.
En résumé, le Javascript et le Python l’emportent haut la main. Dans un environnement de travail où les développeurs préfèrent un projet structuré et bien détaillé et où les process internes sont en perpétuelle évolution, il s’avère essentiel de ne pas se limiter qu’à un seul langage au risque de devenir obsolète avec le temps. Au contraire, l’apprentissage en continu du développeur est ce qui fait la force de ce métier où le linéaire et la « monovalence » n’existent pas.
Comme le suggère la startup montpelliéraine, « Eat, sleep, code and repeat » !

Lancez-vous, développez Android !

A l’heure des téléphones mobiles toujours plus performants, le développement d’applications a également vu croître son activité. Pour faciliter le travail des développeurs, Google a lancé il y a déjà 4 ans un environnement adapté pour les applications Android. Android Studio voit ce mois-ci la version stable 3.3 de son IDE sortir. A cette occasion, voyons un petit peu comment celui-ci se présente.

Un environnement EFFICACE
Disponible sous Windows, MacOs et Linux, Android Studio se veut être un IDE simple d’utilisation pour faciliter la production d’applications de la plus basique à la plus complexe. Soucieux du gain de temps apporté au développeur, Google a privilégié un éditeur de code intelligent avec une autocomplétion pour les langages comme Kotlin, Java ou C/C++. De plus, l’optimisation de votre application est facilitée par les différentes fonctionnalités telles que l’analyseur des composants vous permettant de gérer son poids, ou encore l’émulateur qui vous offre un simulation directe pour mettre à l’épreuve les configurations développées.
D’autre part, pour un seul et même projet, vous avez la possibilité de créer plusieurs variantes pour différents appareils grâce à la personnalisation qu’offre le moteur de production Gradle. Vous avez également à votre disposition des outils de profilage qui fournissent des statistiques en temps réel sur l’activité du processeur, la mémoire et le réseau de votre application.
Et la cerise sur le gâteau, c’est l’éditeur de mise en page qui permet de créer des structures de page complexes en ajoutant des instructions entre chaque vue ou au sein d’une même vue. Vous pouvez ainsi visualiser votre mise en page sur n’importe quelle taille d’écran en sélectionnant l’une des configurations de périphérique ou en redimensionnant simplement l’écran.
Si vous souhaitez le prendre en main dès maintenant, vous pouvez suivre ce cours sur OpenClassrooms et vous développerez votre première application !
Les nouveautés 3.3

Pour ceux qui connaissent déjà l’outil, voici les quelques nouveautés pour cette dernière version.

Dans le fameux éditeur de mise en page, vous pourrez désormais visuellement construire les interactions entre chacune des vues et zones de contenu de votre application; de la même façon que sur Adobe XD par exemple. Un nouvel assistant de création de projet voit également le jour avec la possibilité de configurer son projet plus facilement pour les novices par exemple. La suppression des anciens dossiers de cache a été simplifiée et le langage Kotlin ainsi que la plateforme IntelliJ ont été mis à jour.

Avec les nombreux émulateurs ajoutés sur la version 3.2, l’environnement de développement est d’autant plus optimisé. Vous n’avez donc plus d’excuses pour passer le cap du développement mobile !

Sources : Developer Android, Blog du modérateur et Développez.com

Web design : quelles tendances pour 2019 ?

Animations, couleurs et minimalisme sont les maîtres mots pour cette nouvelle année. 2018 a progressivement vu l’arrivée de nouvelles technologies comme la réalité augmentée et c’est sans surprise que nous les retrouverons également à l’affiche pour les prochains mois.

Attirer et interagir avec l’internaute

Côté couleurs, il faudra vous orienter vers le pastel, plus doux et permettant d’intégrer un graphisme avec beaucoup plus de couleurs sans agresser visuellement l’utilisateur. Dans une optique d’attirer son regard, le parti pris de l’interface monochrome sera donc à éviter.

Autre point important, dynamiser vos sites web et interagir avec l’internaute. Pour cela, les boutons animés, les backgrounds en vidéo ou encore les barres de réseaux sociaux défilantes seront les bienvenus. L’important est de susciter l’intérêt et l’action en naviguant sur la page web. A ce titre, le one-page est également très largement répandu et préféré aux multiples liens de redirection sur les sites conçus auparavant. Le fait de pouvoir avoir l’ensemble des informations grâce à un simple scroll (vertical ou horizontal) est un gros plus.

Toujours dans l’optique de faciliter la lecture de votre site, les polices en gras pour mettre en avant des points clés de votre thème sont une bonne alternative. L’internaute pourra d’un seul regard avoir les mots-clés importants qui lui serviront de guide dans votre page.
Au niveau de l’interface dans son ensemble, on devra retrouver un environnement épuré avec des formes plus naturelles inspirées du Flat Design et une mise en page asymétrique. L’heure du Material Design n’est pas prête d’arriver à sa fin au vu de sa recrudescence ces dernières années. Quant au minimalisme, il sera très intéressant pour mettre notamment en avant des éléments de votre page avec des espaces blancs par exemple.
Intelligence artificielle et réalité augmentée
Dans l’air de l’humain concepteur de toilettes connectées où la discussion est de mise pour éviter l’ennui durant cet instant précieux, les chatbots sont de plus en plus utilisés pour échanger avec l’internaute. Que ce soit pour résoudre un problème ou conseiller le client sur un produit, ceux-ci sont de plus en plus optimisés grâce au machine learning et « humanisent » les marques.
Pour ajouter l’immersion dans votre concept ou pour simuler l’utilisation de votre produit, la réalité augmentée est largement utilisée par les vendeurs pour faciliter la mise en situation du client avec le produit. Vous pouvez désormais essayer vos lunettes en ligne, ou encore simuler l’installation d’un meuble dans votre environnement.
Pour résumer toutes ces lignes de conduite, l’expérience utilisateur et la navigation sont clairement aux avant-postes de la réflexion design de votre site web. Ajoutez à ceci une apparence attrayante et une pointe d’originalité et vous aurez tout gagné !

Le futur de l’informatique

2,75 mètres de haut par 2,75 mètres de large, une température interne de -273°C et une carapace de verre, ce sont les caractéristiques principales de l’IBM Q System One. Il est peut-être pas encore adapté pour votre salon mais cet ordinateur est capable de faire à lui tout seul l’équivalent d’un calcul effectué par 1200 ordinateurs « classiques » en même temps. C’est clairement là toute la puissance de l’ordinateur quantique présent en laboratoire de recherche depuis des années, et mis à la portée de tous par IBM depuis quelques jours lors du CES 2019 à Las Vegas.

Quid de la quantique en informatique ?

De manière simplifiée, nos ordinateurs actuels fonctionnent sur le principe du système binaire en traitant les données avec des 0 ou des 1. Les données sont ainsi exprimées en bits. L’informatique quantique, quant à elle, permet de faire la même chose mais en ajoutant les 0 et les 1 simultanément. Les données ne sont donc plus seulement des bits mais des quantum bits (qubits ou bits quantiques). Avec ces propriétés, l’informatique quantique offre la possibilité de faire plusieurs calculs complexes à la fois, de manière exponentielle. Ces capacités sont déjà exploitées dans divers domaines de la recherche, tels que la médecine pour trouver des médicaments, l’aérospatiale pour des calculs de trajectoires, ou encore sur le plan militaire pour analyser des multitudes de données. Le développement n’est pas en reste avec la capacité à réaliser des codes incassables. On peut très bien imaginer cette compétence là exploitable pour la cybersécurité afin de limiter la moindre faille des services.

Un System One déjà bien optimal

L’ordinateur quantique conçu par IBM a été développé pour qu’ils soient dans les conditions optimales imposées par le quantum bits. En effet, celui-ci rencontre des pertes lorsqu’il n’est pas à une température de -273°C, ou qu’il est en contact avec des vibrations ou des ondes électromagnétiques. En conséquence, IBM a fabriqué un caisson équipé d’une technologie cryogénique et d’une cuve d’hélium pour reproduire cet environnement adapté, avec une gestion de l’état du système assurée par un firmware particulier.

En pratique, étant donné les mensurations quelque peu encombrantes de la machine, IBM met aujourd’hui en commercialisation l’informatique quantique et non directement l’ordinateur. A destination des entreprises principalement, celles-ci pourront y accéder depuis le cloud d’IBM avec leurs ordinateurs habituels.

Loin d’être encore prêt pour un déploiement de masse, IBM Q System One ouvre la porte de la quantique à l’informatique en dehors des laboratoires de recherche. D’autres comme Google ou Microsoft s’essayent également à la technologie mais à des échelles plus petites telles que celle des processeurs ou encore d’une machine hybride.

Sources : Trust My Science, IBM Research

Quand les photos prennent vie

Vous avez peut-être déjà rêvé de voir ou d’imaginer la suite de l’instant saisi par le photographe à travers un cliché. Ceci est maintenant possible grâce à la réalité virtuelle. Des chercheurs américains ont développé un algorithme capable d’extraire un personnage d’une image fixe pour le modéliser en 3D et le faire sortir de la photo d’une manière plutôt réaliste !

Le principe ?

L’algorithme commence par associer au personnage de la photo un modèle qui s’en rapproche sur le plan morphologique. Ensuite, il décompose ce corps en plusieurs parties pour distinguer chacun des membres, la tête et le tronc. Ces différentes parties sont ainsi reconstituées en 3D et les axes du squelette sont également édités afin de déterminer les points d’articulation de ce nouveau modèle. L’algorithme a même été poussé jusqu’à pouvoir estimer la répartition des poids pour chaque partie du corps.

Une fois tout ceci effectué, les textures de la photo initiale peuvent être réappliquées au modèle 3D et le jeu de mise en action du personnage peut commencer ! Ci-dessous, vous avez la photo initiale et le rendu en 3D animé après le travail de l’algorithme.

En pratique

L’algorithme fonctionne aussi bien sur des photos anciennes comme récentes et même sur des dessins. Cependant, il vous faudra des lunettes 3D pour observer le résultat en réalité augmentée. Ainsi, vous pouvez visiter un musée et donner vie à des grands tableaux tels que ceux de Picasso par exemple. L’animation du personnage est alors interactive et l’utilisateur peut décider avec ses mains d’arrêter le modèle et de le faire redémarrer sous un autre angle. Le résultat est vraiment impressionnant contrairement aux premières tentatives qui avait été effectuées dès 2007 par Hornung, artiste peintre, et son équipe; ou même pas plus tard que l’année dernière avec Thiemo Aldieck, chercheur allemand. On arrête plus le progrès !

Sources : PresseCitron, https://www.youtube.com/watch?v=G63goXc5MyU#action=share

Ouvrir et démarrer sa voiture grâce à son empreinte digitale

Après le développement de la reconnaissance grâce à son visage ou à son empreinte digitale sur téléphone et ordinateur, le monde automobile se met dès aujourd’hui à la page. C’est Hyundai qui a sauté le pas avec l’intégration de la technologie d’identification par empreinte digitale dans un futur SUV qui sortira début 2019.

En pratique

Positionnés sur le côté intérieur de la poignet de la portière, votre empreinte est lue par des capteurs intégrés qui vous identifient.  Une fois à l’intérieur du véhicule, vous devrez utiliser le même principe pour démarrer la voiture en appuyant sur le bouton Start and Stop, qui lira également votre empreinte. Et à l’inverse, il sera tout autant possible de la verrouiller par une simple pression sur le même bouton de la portière.

Encore plus fort, l’engin sera capable de déterminer qui est au volant et de s’adapter en fonction. Ainsi, vous pourrez enregistrer vos propres réglages des rétroviseurs intérieurs et extérieurs, ainsi que la position du siège. Une prochaine mise à jour permettra également d’ajuster la température et le mode de conduite et de la direction ou encore la musique.

Techniquement parlant …

Nommée Fingerprint, cette technologie utilisent les données stockées de manière chiffrée dans l’électronique du véhicule. Il sera possible d’enregistrer plusieurs utilisateurs si le véhicule est partagé. Celui-ci aura ainsi plusieurs profils pour lesquels, il sera possible d’y associer plusieurs paramètres.

La marque annonce déjà un taux d’erreur de 1 pour 50 000, ce qui équivaut à la même marge que pour le TouchID d’Apple. Une marge qui semble faible mais trop importante pour certains utilisateurs au vu du prix qui avoisineraient les 30 000 € pour un véhicule équipé de la technologie, en Chine uniquement pour l’instant. Tesla avait développé un système de reconnaissance similaire mais par l’intermédiaire d’un smartphone. Désormais, avec ce système intégré, l’utilisateur est vraiment privilégié et augmente encore plus son confort d’utilisation de son véhicule.

Sources : Phonandroid, Ubergizmo, Geeko, Moniteur Automobile.

Quand Facebook veut prédire vos faits et gestes

Plusieurs médias en ont parlé cette semaine puisque l’information est quelque peu ahurissante dans son contenu. Le géant de la communication vient de demander un brevet pour une fonctionnalité lui permettant de prédire où vous aller vous rendre en se basant sur les précédents lieux que vous avez fréquentés.

Ce brevet baptisé « Offline Trajectories » s’appuie sur une technologie calculant la probabilité de transition basée sur les données précédemment enregistrées. Ces données sont croisées avec celles d’autres utilisateurs qui seront déjà venus dans la zone géographique où vous êtes. Le fonctionnement est ainsi très simple. Si une personne du même âge que vous a, dans ce lieu, pris un café après avoir acheté des lunettes, alors l’algorithme prédira que vous aussi vous irez dans ces mêmes lieux.

En pratique, les étapes de l’algorithme sont les suivants :

  • Déterminer la location actuelle de l’utilisateur.
  • Calculer la probabilité de transition de l’utilisateur.
  • Déterminer les métadonnées associées à l’utilisateur.
  • Calculer hors ligne une probabilité avec chaque localisation géographique trouvée et propre à un utilisateur.
  • Calculer la probabilité que l’utilisateur manque de connexion sans fil.
  • Envoyer la réponse à l’utilisateur.

Ce type de technologie peut permettre à l’utilisateur d’avoir à disposition des données pré-téléchargées par l’application si elle a prévu que vous vous rendiez dans une zone sans connexion. Ceci est possible grâce à l’analyse directe des signaux Wi-Fi, Bluetooth, cellulaires et de communication en champ proche (NFC).

Au-delà de l’analyse de votre position géographique, la technologie est capable de prédire votre destination en fonction du comportement de « déplacement » d’autres utilisateurs du même âge que vous. Avec ceci, Facebook accède à un autre niveau de données utilisateurs rendant ainsi l’accès facile aux informations personnelles pouvant être exploitées pour du ciblage des publicités.

Anthony Harrison, porte-parole de Facebook déclare dans un média : « Nous recherchons souvent des brevets pour des technologies que nous n’appliquons jamais, et les demandes de brevets -comme celle-ci- ne devraient pas être considérées comme une indication de nos futurs projets. Bien qu’une demande de brevet ne signifie pas nécessairement que Facebook prévoit mettre en œuvre la technologie, elle démontre l’intérêt de l’entreprise pour le suivi et la prévision de vos emplacements, un outil important pour l’aider à vous servir des publicités plus efficaces ».

Sources : PresseCitron, Developpez.com et Geeko.

Un déploiement facilité des applications natives

Exécuter une application dans un conteneur virtuel sur n’importe quelle machine, Docker l’avait déjà mis en place en début d’année. Aujourd’hui, Microsoft s’associe à ce projet pour y apporter le côté open-source et surtout l’environnement de développement.

Dénommé Cloud Native Application Bundle (CNAB), son objectif premier est de faciliter le cycle de vie des applications natives dans le cloud. Le développeur peut ainsi définir des ressources pouvant être déployées dans n’importe quel environnement d’exécution. A l’inverse de Helm de Kubernetes, le CNAB cible une utilisation plus globale et s’adapte à tout type de système de déploiement et de gestionnaire de conteneurs. Il permet de réduire le nombre d’outils nécessaires à la création des différentes définitions d’applications. Cela implique la mise en place d’outils de développement, dont des extensions proposées par Microsoft qui seront prochainement disponibles sur Visual Studio Code notamment. Pour paramétrer CNAB, il faudra utiliser le langage de modèle Azure Resource Manager (ARM). Une mise à jour de Docker App sera également réalisée pour y ajouter le support de CNAB et ainsi permettre la gestion des applications par l’entreprise Docker.

L’avancée de ce bundle est vraiment côté développeur où celui-ci pourra définir ses propres ressources et déployer son application depuis n’importe quel environnement de travail (du local jusqu’aux clouds publics). Ce qui fait la spécificité du CNAB, c’est la description précise de l’ensemble des ressources des applications (installation, mise à jour, suppression, migration vers un autre environnement …) qui rend plus accessible le développement de celles-ci. Vous pourrez également signer et vérifier numériquement vos applications même si le support natif n’est pas prévu pour.

De quoi franchir le pas pour le déploiement d’applications complexes et conteneurisées !

Sources : Journal du Net, Silicon.fr, lemondeinformatique.fr

Être malvoyant et utiliser Instagram

Tout bon développeur web connaît l’importance d’un texte alternatif lié à une photo sur son site internet. Codé manuellement, il va permettre à un utilisateur malvoyant de connaître le contenu de l’image affichée à l’écran. Dernièrement, Instagram a pu intégrer dans son application ce type de texte alternatif de façon automatique.

Le fonctionnement ?

L’utilisateur ajoute une photo sur son compte, la commente si besoin et la publie par la suite. Lors de la publication de cette image, une intelligence artificielle basée sur la technologie de reconnaissance va décoder les différentes parties de l’image pour en faire une description précise. Une fois listé, chaque élément est associé à un mot-clé le représentant qui générera automatiquement un texte alternatif. Pour chaque image, ces textes alternatifs sont ainsi lus à haute voix par une seconde IA, le lecteur d’écran, pour la retranscrire à un utilisateur malvoyant. De plus, les textes alternatifs peuvent être personnalisés par la personne qui poste la photo grâce à un espace dédié à la description avant publication de l’image.

Avec 285 millions de personnes malvoyantes dans le monde, Instagram élargit ainsi considérablement ses utilisateurs en palliant directement à un éventuel déficit visuel. Cette fonctionnalité avait été développée quelques années auparavant par Facebook sur la base d’un système d’audiodescription. Instagram évolue seulement maintenant mais promet le développement d’autres fonctionnalités destinées aux malvoyants très prochainement.

Sources : Begeek, Presse Citron, 01.Net.

Un humain en 3D en moins de 30 secondes

Grâce à deux californiens, le corps humain peut désormais être représenté dans son entièreté grâce à un « simple » scanner. Vous avez certainement déjà effectué une radio ou un IRM d’une partie de votre organisme et parfois celui-ci peut s’avérer négatif malgré l’existence réelle de votre mal-être. Avec le nouveau programme Explorer, les médecins pourront avoir un regard rapide sur l’ensemble de vos organes ainsi que leurs échanges et trouver plus rapidement d’où vient le problème.

Cet appareil combine deux technologies : la tomographie par émission de positons qui permet de mesurer en 3D l’activité métabolique ou moléculaire d’un organe, et la tomodensitométrie qui permet de reconstituer en images 2D ou 3D la structure anatomique d’un organisme grâce à la mesure de l’absorption des rayons X par les tissus. Ces deux méthodes améliorent nettement la capture des rayonnements et permet ainsi la production d’une image par seconde, voire même de films notamment pour retracer le passage d’un médicament à l’aide d’un marqueur spécifique.

 

Produisant des images d’une qualité supérieure à tout ce qui a pu exister auparavant, c’est une véritable avancée technologique tant l’appareil est rapide (20 à 30 secondes pour un corps humain entier) et bien moins impactant grâce aux radiations 40 fois inférieures à un scanner normal. Mesurer quantitativement le débit sanguin, le taux d’absorption du glucose par l’organisme ou encore la propagation d’un site tumoral dans les cas de cancer sont désormais possible.

Explorer offre également de nouvelles possibilités de recherches notamment dans le fonctionnement des maladies auto-immunes ou chroniques. Une nouvelle fois, la technologie vient faciliter la médecine et ouvre de réelles perspectives pour de nombreux patients.

Sources : Presse Citron, Explorer.ucdavis.edu.