Combien de fois avions-nous une chanson en tête sans nous rappeler le titre ou son interprète? Des dizaines voire des centaines. Si Shazam est venu apporter une solution, Google va plus loin avec sa fonctionnalité "Hum To Search".

Comme son nom l'indique, vous n'aurez plus qu'à fredonner une chanson pour que Google vous propose une série de titres qui pourraient coller avec la mélodie fredonnée.

Sur votre appareil mobile, ouvrez la dernière version de l'application Google ou recherchez votre widget "Recherche Google", appuyez sur l'icône du micro et dites "quelle est cette chanson?" ou cliquez sur le bouton "Rechercher une chanson". Puis commencez à fredonner pendant 10 à 15 secondes.

Sur l'Assistant Google, c'est tout aussi simple. Dites "Hey Google, c'est quoi cette chanson?" puis fredonnez l'air. Cette fonctionnalité est actuellement disponible en anglais sur iOS et dans plus de 20 langues sur Android.

Une fois que vous avez fini de fredonner, l'algorithme d'apprentissage automatique de Google vous aide à identifier les correspondances potentielles de chansons en vous montrer une liste des chansons les plus probables en fonction de la mélodie. Ensuite, vous pouvez sélectionner la meilleure correspondance et explorer les informations sur la chanson et l'artiste, afficher les clips musicaux qui l'accompagnent ou écouter la chanson sur votre application musicale préférée, trouver les paroles, lire l'analyse et même consulter d'autres enregistrements de la chanson, le cas échéant.

Alors, comment ça marche? Une manière simple de l'expliquer est que la mélodie d'une chanson est comme son empreinte digitale explique Google, chacune ayant sa propre identité. "Nous avons créé des modèles d'apprentissage automatique qui peuvent faire correspondre votre sifflement ou chant avec la bonne 'empreinte digitale' " explique le géant américain.

"Lorsque vous fredonnez une mélodie, nos modèles d'apprentissage automatique transforment l'audio en une séquence numérique représentant la mélodie de la chanson. Nos modèles sont formés pour identifier les chansons en fonction de diverses sources, y compris des humains qui chantent, sifflent ou fredonnent, ainsi que des enregistrements en studio. Les algorithmes suppriment également tous les autres détails, comme les instruments d'accompagnement, le timbre et le ton de la voix. Il ne nous reste plus que la séquence numérique de la chanson ou l’empreinte digitale" poursuit Google.

Animated GIF showing an illustration of a phone with Google Search on the screen. Sound waves go into the phone, and then behind the phone, an illustration of a numbers-based sequences surface, and the phone works to match those numbers to the sound waves.
Source: Google

Une fois l' "empreinte digitale" de la chanson isolée, la séquence est comparée à des milliers de chanson existante dans la base de données de Google pour identifier les correspondances en temps réel.

"Cela s'appuie sur le travail de la technologie de reconnaissance musicale de notre équipe de recherche sur l'Intelligence Artificielle. Nous avons lancé Now Playing sur le Pixel 2 en 2017, en utilisant des réseaux de neurones profonds pour apporter une reconnaissance de faible puissance de la musique aux appareils mobiles. En 2018, nous avons intégré la même technologie à la fonctionnalité SoundSearch de l'application Google et étendu la portée à un catalogue de millions de chansons. Cette nouvelle expérience va encore plus loin, car nous pouvons désormais reconnaître des chansons sans paroles ni chanson originale. Tout ce dont nous avons besoin, c'est d'un fredonnement" conclut Google.

Retrouvez également sur Gomytech: