#!/usr/bin/python3
# -*- coding: utf-8 -*-
import numpy as np
def Biohash(B, M):
M[:,0] /= np.linalg.norm (M[:,0], 2)
for i in range (1, nb_col):
for j in range (0, i): M[:,i] -= M[:,i].dot (M[:,j]) * M[:,j]
M[:,i] /= np.linalg.norm(M[:,i], 2) # fin de Gram-Schmidt
return np.ndarray.astype (np.sign (np.matmul (B,M)) + 1, int) >> 1
if __name__ == "__main__":
min_M = 0 # Les éléments de M sont générés entre min_M et max_M
max_M = 128
min_B = 0 # Les éléments de la donnée B sont générés entre min_B et max_B
max_B = 128
nb_lin = 256 # nb de lignes de M = taille de la donnée biométrique B
nb_col = 128 # nb de colonnes de M = taille du biohash H
M = np.random.uniform (min_M, max_M, (nb_lin, nb_col))
B = np.random.randn(1, nb_lin)
H = Biohash (B,M).reshape (nb_col)
oui j'ai proposé un mécanisme combinant biohashing et fuzzy commitment pour sécuriser le stockage des modèles biométriques, c'est ce que je veux simuler sur python pour visualiser les taux d'erreurs .
Newton junior
biométrie
× Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
× Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.