Chapitre 1 - Principes de base de l'image numérique

Devant

Selon les informations recherchées sur Internet, la résolution de l'œil humain équivaut à environ 576 millions de pixels et la vision centrale des yeux à 7 millions de pixels.L'image est transmise au cerveau par les yeux pour former un image complète. Une image numérique est composée de points les uns après les autres dans l'ordinateur, et ces points sont appelés pixels.

Représentation d'images en noir et blanc

L'image est composée de 0 et 1, le noir est 0, le blanc est 1, la différence visuelle est causée par la différence entre le noir et le blanc pour produire des informations d'image différentes, une telle image devient une image binaire.

Dans des circonstances normales, un octet (8 bits) est utilisé pour représenter un pixel. Selon la plage de valeurs de 00000000~11111111, qui est [0,255], 256 couleurs peuvent être représentées par 8 bits, c'est-à-dire du noir pur + 254 couleurs différentes. noir et blanc Le rapport gris + blanc pur, utilisant 256 types d'images en niveaux de gris tels que le noir, le blanc et le gris, devient une image en niveaux de gris.

L'octet est l'unité de stockage de base. Pour la commodité et la cohérence du traitement, l'image binaire ne contient que 0 et 255, tandis que la plage de valeurs de l'image en niveaux de gris est une collection de 0 à 255.

Dans le processus de traitement d'image, le résultat du traitement de la valeur de pixel du pixel peut dépasser 255, il existe donc deux méthodes de traitement différentes :

  1. Traitement modulo, traitement des valeurs et traitement 256 modulo
  2. Traitement de saturation, si le résultat du traitement dépasse 255, il faudra 255, s'il ne dépasse pas 255, ce sera la valeur elle-même

Les différentes méthodes de traitement ci-dessus se reflètent spécifiquement dans les méthodes de traitement ultérieures de numpy et opencv lorsque la valeur de pixel dépasse 255.

Les images numériques sont stockées dans une matrice (tableau) dans l'ordinateur, et chaque élément a sa propre valeur de position, qui est utilisée pour représenter le numéro de ligne et le numéro de colonne. Dans opencv, l'origine des coordonnées de l'image se trouve dans le coin supérieur gauche, l'origine à droite est la direction positive de l'axe des x et l'origine est vers le bas dans la direction positive de l'axe des y.

La ligne et la hauteur de l'image utilisées dans le traitement d'image ont la même signification, et la colonne et la largeur de l'image ont la même signification.

Représentation des images en couleur

L'image n'est pas seulement gris noir et blanc, mais aussi une variété de couleurs brillantes.

Couleurs primaires optiques (rouge-vert-bleu). Les trois couleurs primaires optiques sont mélangées dans des proportions différentes pour former diverses couleurs qui peuvent être affichées sur l'écran d'affichage, de sorte que cette méthode devient également l'espace colorimétrique RVB.

R, G et B correspondent respectivement à la taille des trois composants de couleur, chaque valeur de composant est [0,255], donc RVB peut afficher un total de 256*256*256=16777216 couleurs différentes, bien au-delà de la plage que l'œil nu peut percevoir.

Normalement, lorsqu'un ordinateur stocke ou calcule des pixels en mode RVB, il stocke la valeur de chaque composante de couleur séparément, c'est-à-dire qu'il existe un canal R, un canal V et un canal B dans l'espace colorimétrique RVB.

Il s'agit à peu près d'une image couleur 512*512 composée de trois papiers fins 512*512 qui stockent respectivement les composants R, les composants G et les composants B. Les trois papiers fins sont empilés dans un ordre spécifique (RVB) pour former une image couleur. , Ces trois papiers minces sont appelés respectivement canal R, canal G et canal B.

quelques autres notions

  1. Quantification : La conversion des images en valeurs numériques que les ordinateurs peuvent comprendre et traiter devient une quantification, de sorte que tous les canaux RVB et chaque canal ont des valeurs de couleur spécifiques.
  2. Caractéristiques : lors de la reconnaissance faciale, vous devez d'abord connaître la position du visage, et la plage du visage est la caractéristique. Lors de la discrimination des visages, vous devez extraire les principales caractéristiques du visage à des fins de comparaison.
  3. Distance : utilisez la distance pour mesurer la différence entre les images, ce qui est pratique pour distinguer et identifier.

Distance de Manhattan : la somme des valeurs absolues des différences des caractéristiques de chaque point |x1-x2| + |y1-y2|

Distance euclidienne : la somme des carrés des différences des caractéristiques de chaque point, puis ouvrir le signe racine √ (|x1-x2|²+|y1-y2|²)

Reconnaissance d'images

Icône de reconnaissance faciale :

Rechercher des images par image :

Icône d'identification numérique :

Le processus général de reconnaissance d'image :

masquage d'informations

Le masquage des informations numériques est réalisé selon un certain algorithme.

Fondamentaux du traitement d'image intelligent

Sélectionnez les fonctionnalités appropriées : résumez fortement les caractéristiques de l'image et reflètez les différences entre les différentes images

Méthode de quantification appropriée : quantifier les caractéristiques en valeurs raisonnables

Calcul de distance : choisissez la méthode de calcul de distance appropriée pour calculer la distance

façon traditionnelle

Extrayez vous-même les fonctionnalités et traitez-les vous-même

méthode d'apprentissage automatique

Extrayez vous-même les fonctionnalités et traitez-les automatiquement

méthode d'apprentissage en profondeur

Extraire automatiquement les fonctionnalités de haut niveau et traiter automatiquement les fonctionnalités

Je suppose que tu aimes

Origine blog.csdn.net/sunguanyong/article/details/129134089
conseillé
Classement