Reconnaître l'écriture manuscrite des utilisateurs

L'API de reconnaissance d'écriture manuscrite vous permet de reconnaître du texte à partir d'une saisie manuscrite en temps réel.

Qu'est-ce que l'API de reconnaissance d'écriture manuscrite ?

L'API de reconnaissance de l'écriture manuscrite vous permet de convertir l'écriture manuscrite (encre) de vos utilisateurs en texte. Certains systèmes d'exploitation incluent depuis longtemps de telles API. Avec cette nouvelle fonctionnalité, vos applications Web peuvent enfin utiliser cette fonctionnalité. La conversion a lieu directement sur l'appareil de l'utilisateur et fonctionne même en mode hors connexion, sans ajouter de bibliothèques ni de services tiers.

Cette API implémente la reconnaissance dite "en ligne" ou quasiment en temps réel. Cela signifie que l'entrée manuscrite est reconnue pendant que l'utilisateur la dessine en capturant et en analysant les traits uniques. Contrairement aux procédures "hors ligne" telles que la reconnaissance optique des caractères (OCR), où seul le produit final est connu, les algorithmes en ligne peuvent fournir un niveau de précision plus élevé grâce à des signaux supplémentaires tels que la séquence temporelle et la pression des traits d'encre individuels.

Cas d'utilisation suggérés pour l'API de reconnaissance d'écriture manuscrite

Exemples d'utilisation:

  • Applications de prise de notes dans lesquelles les utilisateurs souhaitent prendre des notes manuscrites et les faire traduire en texte.
  • Applications Forms dans lesquelles les utilisateurs peuvent utiliser la saisie au stylo ou avec le doigt pour des contraintes de temps.
  • Jeux qui nécessitent de saisir des lettres ou des chiffres, tels que les mots croisés, le pendu ou le sudoku.

État actuel

L'API de reconnaissance de l'écriture manuscrite est disponible sur (Chromium 99).

Utiliser l'API de reconnaissance d'écriture manuscrite

Détection de caractéristiques

Détectez la compatibilité du navigateur en vérifiant l'existence de la méthode createHandwritingRecognizer() sur l'objet de navigation:

if ('createHandwritingRecognizer' in navigator) {
  // 🎉 The Handwriting Recognition API is supported!
}

Concepts fondamentaux

L'API de reconnaissance d'écriture manuscrite convertit les saisies manuscrites en texte, quel que soit le mode de saisie (souris, toucher, stylet). L'API comporte quatre entités principales:

  1. Un point représente l'emplacement du pointeur à un moment donné.
  2. Un trait se compose d'un ou de plusieurs points. L'enregistrement d'un trait commence lorsque l'utilisateur place le pointeur (c'est-à-dire qu'il clique sur le bouton principal de la souris, ou touche l'écran avec le stylet ou le doigt) et se termine lorsqu'il le remonte.
  3. Un dessin se compose d'un ou de plusieurs traits. La reconnaissance proprement dite a lieu à ce niveau.
  4. Le reconnu est configuré avec la langue de saisie attendue. Il permet de créer une instance de dessin avec la configuration du programme de reconnaissance appliquée.

Ces concepts sont implémentés sous la forme d'interfaces et de dictionnaires spécifiques, que nous aborderons plus tard.

Entités principales de l'API de reconnaissance de l'écriture manuscrite: un ou plusieurs points composent un trait ; un ou plusieurs traits composent un dessin créé par l'outil de reconnaissance. La reconnaissance a lieu au niveau du dessin.

Créer un programme de reconnaissance

Pour reconnaître du texte à partir d'une entrée manuscrite, vous devez obtenir une instance de HandwritingRecognizer en appelant navigator.createHandwritingRecognizer() et en lui transmettant des contraintes. Les contraintes déterminent le modèle de reconnaissance de l'écriture manuscrite à utiliser. Actuellement, vous pouvez spécifier une liste de langues par ordre de préférence:

const recognizer = await navigator.createHandwritingRecognizer({
  languages: ['en'],
});

La méthode renvoie une promesse résolue avec une instance de HandwritingRecognizer lorsque le navigateur peut répondre à votre requête. Sinon, il rejette la promesse avec une erreur, et la reconnaissance de l'écriture manuscrite ne sera pas disponible. Pour cette raison, vous pouvez d'abord interroger la prise en charge du programme de reconnaissance pour des fonctionnalités de reconnaissance particulières.

Compatibilité avec le programme de reconnaissance d'interrogations

En appelant navigator.queryHandwritingRecognizerSupport(), vous pouvez vérifier si la plate-forme cible prend en charge les fonctionnalités de reconnaissance de l'écriture manuscrite que vous souhaitez utiliser. Dans l'exemple suivant, le développeur:

  • souhaite détecter du texte en anglais
  • obtenir des prédictions alternatives moins probables lorsqu'elles sont disponibles
  • accéder au résultat de la segmentation, c'est-à-dire aux caractères reconnus, y compris aux points et aux traits qui les composent
const { languages, alternatives, segmentationResults } =
  await navigator.queryHandwritingRecognizerSupport({
    languages: ['en'],
    alternatives: true,
    segmentationResult: true,
  });

console.log(languages); // true or false
console.log(alternatives); // true or false
console.log(segmentationResult); // true or false

La méthode renvoie une promesse résolue avec un objet de résultat. Si le navigateur est compatible avec la fonctionnalité spécifiée par le développeur, sa valeur sera définie sur true. Sinon, il sera défini sur false. Vous pouvez utiliser ces informations pour activer ou désactiver certaines fonctionnalités de votre application, ou pour ajuster votre requête et en envoyer une nouvelle.

Commencer un dessin

Dans votre application, vous devez proposer une zone de saisie dans laquelle l'utilisateur effectue ses entrées manuscrites. Pour des raisons de performances, il est recommandé de procéder à l'implémentation à l'aide d'un objet Canvas. L'implémentation exacte de cette partie n'entre pas dans le cadre de cet article, mais vous pouvez consulter la démonstration pour découvrir comment procéder.

Pour commencer un nouveau dessin, appelez la méthode startDrawing() dans le programme de reconnaissance. Cette méthode utilise un objet contenant différentes suggestions pour affiner l'algorithme de reconnaissance. Tous les conseils sont facultatifs:

  • Type de texte saisi: texte, adresses e-mail, chiffres ou caractère individuel (recognitionType)
  • Type de périphérique d'entrée: souris, écran tactile ou stylet (inputType)
  • Le texte qui précède (textContext)
  • Nombre de prédictions moins probables à renvoyer (alternatives)
  • Liste de caractères identifiables par l'utilisateur ("graphemes") que l'utilisateur est le plus susceptible de saisir (graphemeSet)

L'API HandWrite Recognition fonctionne bien avec les événements de pointeur, qui fournissent une interface abstraite permettant de consommer les entrées de n'importe quel dispositif de pointage. Les arguments d'événement de pointeur contiennent le type de pointeur utilisé. Cela signifie que vous pouvez utiliser des événements de pointeur pour déterminer automatiquement le type d'entrée. Dans l'exemple suivant, le dessin de reconnaissance de l'écriture manuscrite est automatiquement créé à la première occurrence d'un événement pointerdown dans la zone d'écriture manuscrite. Comme pointerType peut être vide ou défini sur une valeur propriétaire, j'ai introduit une vérification de cohérence pour m'assurer que seules les valeurs acceptées sont définies pour le type d'entrée du dessin.

let drawing;
let activeStroke;

canvas.addEventListener('pointerdown', (event) => {
  if (!drawing) {
    drawing = recognizer.startDrawing({
      recognitionType: 'text', // email, number, per-character
      inputType: ['mouse', 'touch', 'pen'].find((type) => type === event.pointerType),
      textContext: 'Hello, ',
      alternatives: 2,
      graphemeSet: ['f', 'i', 'z', 'b', 'u'], // for a fizz buzz entry form
    });
  }
  startStroke(event);
});

Ajouter un trait

L'événement pointerdown est également le bon endroit pour commencer un nouveau trait. Pour ce faire, créez une instance de HandwritingStroke. En outre, vous devez stocker l'heure actuelle comme point de référence pour les points ajoutés par la suite:

function startStroke(event) {
  activeStroke = {
    stroke: new HandwritingStroke(),
    startTime: Date.now(),
  };
  addPoint(event);
}

Ajouter un point

Après avoir créé le trait, vous devez y ajouter directement le premier point. Comme vous ajouterez d'autres points par la suite, il est judicieux d'implémenter la logique de création de points dans une méthode distincte. Dans l'exemple suivant, la méthode addPoint() calcule le temps écoulé à partir de l'horodatage de référence. Les informations temporelles sont facultatives, mais peuvent améliorer la qualité de la reconnaissance. Ensuite, il lit les coordonnées X et Y à partir de l'événement de pointeur et ajoute le point au trait actuel.

function addPoint(event) {
  const timeElapsed = Date.now() - activeStroke.startTime;
  activeStroke.stroke.addPoint({
    x: event.offsetX,
    y: event.offsetY,
    t: timeElapsed,
  });
}

Le gestionnaire d'événements pointermove est appelé lorsque le pointeur est déplacé à l'écran. Ces points doivent également être ajoutés au trait. L'événement peut également être déclenché si le pointeur n'est pas à l'état "Bas", par exemple lorsque vous déplacez le curseur sur l'écran sans appuyer sur le bouton de la souris. Le gestionnaire d'événements de l'exemple suivant vérifie si un trait actif existe et y ajoute le nouveau point.

canvas.addEventListener('pointermove', (event) => {
  if (activeStroke) {
    addPoint(event);
  }
});

Reconnaître du texte

Lorsque l'utilisateur soulève à nouveau le pointeur, vous pouvez ajouter le trait à votre dessin en appelant sa méthode addStroke(). L'exemple suivant réinitialise également activeStroke, de sorte que le gestionnaire pointermove n'ajoute pas de points au trait terminé.

Ensuite, il est temps de reconnaître l'entrée utilisateur en appelant la méthode getPrediction() sur le dessin. La reconnaissance prend généralement moins de quelques centaines de millisecondes. Vous pouvez donc exécuter des prédictions de manière répétée si nécessaire. L'exemple suivant exécute une nouvelle prédiction après chaque trait terminé.

canvas.addEventListener('pointerup', async (event) => {
  drawing.addStroke(activeStroke.stroke);
  activeStroke = null;

  const [mostLikelyPrediction, ...lessLikelyAlternatives] = await drawing.getPrediction();
  if (mostLikelyPrediction) {
    console.log(mostLikelyPrediction.text);
  }
  lessLikelyAlternatives?.forEach((alternative) => console.log(alternative.text));
});

Cette méthode renvoie une promesse qui se résout avec un tableau de prédictions classées en fonction de leur probabilité. Le nombre d'éléments dépend de la valeur que vous avez transmise à l'indice alternatives. Vous pouvez utiliser ce tableau pour présenter à l'utilisateur un choix de correspondances possibles et lui demander de sélectionner une option. Vous pouvez également choisir la prédiction la plus probable, comme c'est le cas dans notre exemple.

L'objet de prédiction contient le texte reconnu et un résultat de segmentation facultatif. Nous en parlerons dans la section suivante.

Insights détaillés avec résultats de segmentation

S'il est compatible avec la plate-forme cible, l'objet de prédiction peut également contenir un résultat de segmentation. Il s'agit d'un tableau contenant tous les segments d'écriture manuscrite reconnus, une combinaison du caractère reconnaissable permettant d'identifier l'utilisateur (grapheme) et de sa position dans le texte reconnu (beginIndex, endIndex), ainsi que les traits et les points qui l'ont créé.

if (mostLikelyPrediction.segmentationResult) {
  mostLikelyPrediction.segmentationResult.forEach(
    ({ grapheme, beginIndex, endIndex, drawingSegments }) => {
      console.log(grapheme, beginIndex, endIndex);
      drawingSegments.forEach(({ strokeIndex, beginPointIndex, endPointIndex }) => {
        console.log(strokeIndex, beginPointIndex, endPointIndex);
      });
    },
  );
}

Vous pouvez utiliser ces informations pour retrouver les graphèmes reconnus sur la toile.

Des cases sont dessinées autour de chaque graphme reconnu.

Reconnaissance totale

Une fois la reconnaissance terminée, vous pouvez libérer des ressources en appelant la méthode clear() sur HandwritingDrawing et la méthode finish() sur HandwritingRecognizer:

drawing.clear();
recognizer.finish();

Démonstration

Le composant Web <handwriting-textarea> implémente une commande d'édition progressivement améliorée capable de reconnaître l'écriture manuscrite. Cliquez sur le bouton en bas à droite de la commande d'édition pour activer le mode de dessin. Une fois le dessin terminé, le composant Web lance automatiquement la reconnaissance et ajoute le texte reconnu à la commande d'édition. Si l'API de reconnaissance d'écriture manuscrite n'est pas compatible du tout ou si la plate-forme ne prend pas en charge les fonctionnalités demandées, le bouton de modification est masqué. Toutefois, la commande de modification de base reste utilisable en tant que <textarea>.

Le composant Web propose des propriétés et des attributs permettant de définir le comportement de reconnaissance de l'extérieur, y compris languages et recognitiontype. Vous pouvez définir le contenu de la commande via l'attribut value:

<handwriting-textarea languages="en" recognitiontype="text" value="Hello"></handwriting-textarea>

Pour être informé des modifications apportées à la valeur, vous pouvez écouter l'événement input.

Vous pouvez essayer le composant en suivant cette démonstration sur Glitch. Veillez également à consulter le code source. Pour utiliser la commande dans votre application, procurez-vous la commande à partir de npm.

Sécurité et autorisations

L'équipe Chromium a conçu et mis en œuvre l'API de reconnaissance de l'écriture manuscrite en suivant les principes fondamentaux définis dans la section Contrôler l'accès aux fonctionnalités puissantes de la plate-forme Web, y compris le contrôle utilisateur, la transparence et l'ergonomie.

Contrôle des utilisateurs

L'utilisateur ne peut pas désactiver l'API de reconnaissance d'écriture manuscrite. Il n'est disponible que pour les sites Web fournis via HTTPS et ne peut être appelé qu'à partir du contexte de navigation de premier niveau.

Transparence

L'activation de la reconnaissance de l'écriture manuscrite n'est pas indiquée. Pour éviter le fingerprinting, le navigateur implémente des contre-mesures, telles que l'affichage d'une invite d'autorisation auprès de l'utilisateur lorsqu'il détecte un abus potentiel.

Persistance des autorisations

Actuellement, l'API HandWrite Recognition n'affiche aucune invite d'autorisation. Ainsi, l'autorisation n'a pas besoin d'être conservée de quelque manière que ce soit.

Commentaires

L'équipe Chromium souhaite connaître votre avis sur votre expérience avec l'API de reconnaissance de l'écriture manuscrite.

Présentez-nous la conception de l'API

Y a-t-il un aspect de l'API qui ne fonctionne pas comme prévu ? Ou s'il manque des méthodes ou des propriétés dont vous avez besoin pour mettre en œuvre votre idée ? Vous avez une question ou un commentaire sur le modèle de sécurité ? Signalez un problème de spécification dans le dépôt GitHub correspondant ou ajoutez vos commentaires à un problème existant.

Signaler un problème d'implémentation

Avez-vous détecté un bug dans l'implémentation de Chromium ? Ou l'implémentation est-elle différente des spécifications ? Signalez un bug sur new.crbug.com. Veillez à inclure autant de détails que possible et des instructions simples pour reproduire le bug, et saisissez Blink>Handwriting dans la zone Composants. Glitch est idéal pour partager des répétitions rapidement et facilement.

Apportez votre soutien à l'API

Prévoyez-vous d'utiliser l'API de reconnaissance d'écriture manuscrite ? Votre assistance publique aide l'équipe Chromium à hiérarchiser les fonctionnalités et montre aux autres fournisseurs de navigateurs à quel point il est essentiel de les prendre en charge.

Expliquez comment vous prévoyez de l'utiliser dans le fil de discussion du discours de WiCG. Envoyez un tweet à @ChromiumDev avec le hashtag #HandwritingRecognition et indiquez-nous où et comment vous l'utilisez.

Remerciements

Cet article a été lu par Joe Medley, Honglin Yu et Jiewei Qian. Image héros de Samir Bouaked sur Unsplash.