it-swarm-pt.tech

Algoritmo para encontrar imagens semelhantes

Eu preciso de um algoritmo que possa determinar se duas imagens são "semelhantes" e reconhecer padrões semelhantes de cor, brilho, forma etc. Talvez eu precise de alguns indicadores sobre quais parâmetros o cérebro humano usa para "categorizar" imagens. ..

Eu olhei para a correspondência baseada em hausdorff, mas isso parece principalmente para combinar objetos transformados e padrões de forma.

76
kitsune

Eu fiz algo semelhante, decompondo imagens em assinaturas usando transformada wavelet .

Minha abordagem foi escolher os coeficientes mais significativos n de cada canal transformado e registrar sua localização. Isso foi feito classificando a lista de tuplas (potência, localização) de acordo com abs (potência). Imagens semelhantes compartilharão semelhanças, pois terão coeficientes significativos nos mesmos locais.

Eu achei que era melhor transformar a imagem no formato YUV, o que efetivamente permite ponderar a semelhança na forma (canal Y) e na cor (canais UV).

Você pode encontrar minha implementação do acima em mactorii , que infelizmente não tenho trabalhado tanto quanto deveria :-)

Outro método, que alguns amigos meus usaram com resultados surpreendentemente bons, é simplesmente redimensionar sua imagem, digamos, um pixel 4x4 e uma loja que é sua assinatura. Como duas imagens semelhantes podem ser pontuadas, digamos, calculando a distância de Manhattan entre as 2 imagens, usando os pixels correspondentes. Como não tenho os detalhes de como eles executaram o redimensionamento, talvez você precise jogar com os vários algoritmos disponíveis para essa tarefa para encontrar um que seja adequado.

55
freespace

pHash pode lhe interessar.

perceptual hash n. uma impressão digital de um arquivo de áudio, vídeo ou imagem que é matematicamente baseado no conteúdo de áudio ou visual contido nele. Diferentemente das funções de hash criptográfico que dependem do efeito avalanche de pequenas alterações na entrada, levando a mudanças drásticas na saída, os hashes perceptivos estão "próximos" um do outro se as entradas forem visualmente ou auditivamente semelhantes.

43
Alvis

Eu usei PENEIRAR para re-detectar o mesmo objeto em imagens diferentes. É realmente poderoso, mas bastante complexo, e pode ser um exagero. Se as imagens devem ser bastante semelhantes, alguns parâmetros simples baseados na diferença entre as duas imagens podem lhe dizer um pouco. Algumas dicas:

  • Normalize as imagens, ou seja, torne o brilho médio de ambas as imagens calculando o brilho médio de ambas e diminuindo o brilho de acordo com a ração (para evitar cortes no nível mais alto)), especialmente se você estiver mais interessado na forma do que em cor.
  • Soma da diferença de cor em relação à imagem normalizada por canal.
  • encontre bordas nas imagens e meça a distância entre os pixels da borda nas duas imagens. (para forma)
  • Divida as imagens em um conjunto de regiões discretas e compare a cor média de cada região.
  • Limite as imagens em um (ou um conjunto de) níveis e conte o número de pixels em que as imagens preto/branco resultantes diferem.
12
jilles de wit

Você poderia usar Diferença de imagem perceptiva

É um utilitário de linha de comando que compara duas imagens usando uma métrica perceptiva. Ou seja, ele usa um modelo computacional do sistema visual humano para determinar se duas imagens são visualmente diferentes, portanto, pequenas alterações nos pixels são ignoradas. Além disso, reduz drasticamente o número de falsos positivos causados ​​por diferenças na geração aleatória de números, diferenças no SO ou na arquitetura da máquina.

5
Alejandro Bologna

Meu laboratório também precisava resolver esse problema e usamos o Tensorflow. Aqui está uma implementação aplicativo completo para visualizar a similaridade da imagem.

Para um tutorial sobre vetorização de imagens para computação de similaridade, consulte esta página . Aqui está o Python (novamente, veja a postagem para obter o fluxo de trabalho completo):

from __future__ import absolute_import, division, print_function

"""

This is a modification of the classify_images.py
script in Tensorflow. The original script produces
string labels for input images (e.g. you input a picture
of a cat and the script returns the string "cat"); this
modification reads in a directory of images and 
generates a vector representation of the image using
the penultimate layer of neural network weights.

Usage: python classify_images.py "../image_dir/*.jpg"

"""

# Copyright 2015 The TensorFlow Authors. All Rights Reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
#     http://www.Apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
# ==============================================================================

"""Simple image classification with Inception.

Run image classification with Inception trained on ImageNet 2012 Challenge data
set.

This program creates a graph from a saved GraphDef protocol buffer,
and runs inference on an input JPEG image. It outputs human readable
strings of the top 5 predictions along with their probabilities.

Change the --image_file argument to any jpg image to compute a
classification of that image.

Please see the tutorial and website for a detailed description of how
to use this script to perform image recognition.

https://tensorflow.org/tutorials/image_recognition/
"""

import os.path
import re
import sys
import tarfile
import glob
import json
import psutil
from collections import defaultdict
import numpy as np
from six.moves import urllib
import tensorflow as tf

FLAGS = tf.app.flags.FLAGS

# classify_image_graph_def.pb:
#   Binary representation of the GraphDef protocol buffer.
# imagenet_synset_to_human_label_map.txt:
#   Map from synset ID to a human readable string.
# imagenet_2012_challenge_label_map_proto.pbtxt:
#   Text representation of a protocol buffer mapping a label to synset ID.
tf.app.flags.DEFINE_string(
    'model_dir', '/tmp/imagenet',
    """Path to classify_image_graph_def.pb, """
    """imagenet_synset_to_human_label_map.txt, and """
    """imagenet_2012_challenge_label_map_proto.pbtxt.""")
tf.app.flags.DEFINE_string('image_file', '',
                           """Absolute path to image file.""")
tf.app.flags.DEFINE_integer('num_top_predictions', 5,
                            """Display this many predictions.""")

# pylint: disable=line-too-long
DATA_URL = 'http://download.tensorflow.org/models/image/imagenet/inception-2015-12-05.tgz'
# pylint: enable=line-too-long


class NodeLookup(object):
  """Converts integer node ID's to human readable labels."""

  def __init__(self,
               label_lookup_path=None,
               uid_lookup_path=None):
    if not label_lookup_path:
      label_lookup_path = os.path.join(
          FLAGS.model_dir, 'imagenet_2012_challenge_label_map_proto.pbtxt')
    if not uid_lookup_path:
      uid_lookup_path = os.path.join(
          FLAGS.model_dir, 'imagenet_synset_to_human_label_map.txt')
    self.node_lookup = self.load(label_lookup_path, uid_lookup_path)

  def load(self, label_lookup_path, uid_lookup_path):
    """Loads a human readable English name for each softmax node.

    Args:
      label_lookup_path: string UID to integer node ID.
      uid_lookup_path: string UID to human-readable string.

    Returns:
      dict from integer node ID to human-readable string.
    """
    if not tf.gfile.Exists(uid_lookup_path):
      tf.logging.fatal('File does not exist %s', uid_lookup_path)
    if not tf.gfile.Exists(label_lookup_path):
      tf.logging.fatal('File does not exist %s', label_lookup_path)

    # Loads mapping from string UID to human-readable string
    proto_as_ascii_lines = tf.gfile.GFile(uid_lookup_path).readlines()
    uid_to_human = {}
    p = re.compile(r'[n\d]*[ \S,]*')
    for line in proto_as_ascii_lines:
      parsed_items = p.findall(line)
      uid = parsed_items[0]
      human_string = parsed_items[2]
      uid_to_human[uid] = human_string

    # Loads mapping from string UID to integer node ID.
    node_id_to_uid = {}
    proto_as_ascii = tf.gfile.GFile(label_lookup_path).readlines()
    for line in proto_as_ascii:
      if line.startswith('  target_class:'):
        target_class = int(line.split(': ')[1])
      if line.startswith('  target_class_string:'):
        target_class_string = line.split(': ')[1]
        node_id_to_uid[target_class] = target_class_string[1:-2]

    # Loads the final mapping of integer node ID to human-readable string
    node_id_to_name = {}
    for key, val in node_id_to_uid.items():
      if val not in uid_to_human:
        tf.logging.fatal('Failed to locate: %s', val)
      name = uid_to_human[val]
      node_id_to_name[key] = name

    return node_id_to_name

  def id_to_string(self, node_id):
    if node_id not in self.node_lookup:
      return ''
    return self.node_lookup[node_id]


def create_graph():
  """Creates a graph from saved GraphDef file and returns a saver."""
  # Creates graph from saved graph_def.pb.
  with tf.gfile.FastGFile(os.path.join(
      FLAGS.model_dir, 'classify_image_graph_def.pb'), 'rb') as f:
    graph_def = tf.GraphDef()
    graph_def.ParseFromString(f.read())
    _ = tf.import_graph_def(graph_def, name='')


def run_inference_on_images(image_list, output_dir):
  """Runs inference on an image list.

  Args:
    image_list: a list of images.
    output_dir: the directory in which image vectors will be saved

  Returns:
    image_to_labels: a dictionary with image file keys and predicted
      text label values
  """
  image_to_labels = defaultdict(list)

  create_graph()

  with tf.Session() as sess:
    # Some useful tensors:
    # 'softmax:0': A tensor containing the normalized prediction across
    #   1000 labels.
    # 'pool_3:0': A tensor containing the next-to-last layer containing 2048
    #   float description of the image.
    # 'DecodeJpeg/contents:0': A tensor containing a string providing JPEG
    #   encoding of the image.
    # Runs the softmax tensor by feeding the image_data as input to the graph.
    softmax_tensor = sess.graph.get_tensor_by_name('softmax:0')

    for image_index, image in enumerate(image_list):
      try:
        print("parsing", image_index, image, "\n")
        if not tf.gfile.Exists(image):
          tf.logging.fatal('File does not exist %s', image)

        with tf.gfile.FastGFile(image, 'rb') as f:
          image_data =  f.read()

          predictions = sess.run(softmax_tensor,
                          {'DecodeJpeg/contents:0': image_data})

          predictions = np.squeeze(predictions)

          ###
          # Get penultimate layer weights
          ###

          feature_tensor = sess.graph.get_tensor_by_name('pool_3:0')
          feature_set = sess.run(feature_tensor,
                          {'DecodeJpeg/contents:0': image_data})
          feature_vector = np.squeeze(feature_set)        
          outfile_name = os.path.basename(image) + ".npz"
          out_path = os.path.join(output_dir, outfile_name)
          np.savetxt(out_path, feature_vector, delimiter=',')

          # Creates node ID --> English string lookup.
          node_lookup = NodeLookup()

          top_k = predictions.argsort()[-FLAGS.num_top_predictions:][::-1]
          for node_id in top_k:
            human_string = node_lookup.id_to_string(node_id)
            score = predictions[node_id]
            print("results for", image)
            print('%s (score = %.5f)' % (human_string, score))
            print("\n")

            image_to_labels[image].append(
              {
                "labels": human_string,
                "score": str(score)
              }
            )

        # close the open file handlers
        proc = psutil.Process()
        open_files = proc.open_files()

        for open_file in open_files:
          file_handler = getattr(open_file, "fd")
          os.close(file_handler)
      except:
        print('could not process image index',image_index,'image', image)

  return image_to_labels


def maybe_download_and_extract():
  """Download and extract model tar file."""
  dest_directory = FLAGS.model_dir
  if not os.path.exists(dest_directory):
    os.makedirs(dest_directory)
  filename = DATA_URL.split('/')[-1]
  filepath = os.path.join(dest_directory, filename)
  if not os.path.exists(filepath):
    def _progress(count, block_size, total_size):
      sys.stdout.write('\r>> Downloading %s %.1f%%' % (
          filename, float(count * block_size) / float(total_size) * 100.0))
      sys.stdout.flush()
    filepath, _ = urllib.request.urlretrieve(DATA_URL, filepath, _progress)
    print()
    statinfo = os.stat(filepath)
    print('Succesfully downloaded', filename, statinfo.st_size, 'bytes.')
  tarfile.open(filepath, 'r:gz').extractall(dest_directory)


def main(_):
  maybe_download_and_extract()
  if len(sys.argv) < 2:
    print("please provide a glob path to one or more images, e.g.")
    print("python classify_image_modified.py '../cats/*.jpg'")
    sys.exit()

  else:
    output_dir = "image_vectors"
    if not os.path.exists(output_dir):
      os.makedirs(output_dir)

    images = glob.glob(sys.argv[1])
    image_to_labels = run_inference_on_images(images, output_dir)

    with open("image_to_labels.json", "w") as img_to_labels_out:
      json.dump(image_to_labels, img_to_labels_out)

    print("all done")
if __== '__main__':
  tf.app.run()
5
duhaime

É um problema difícil! Depende da precisão que você precisa ter e de que tipo de imagens você está trabalhando. Você pode usar histogramas para comparar cores, mas isso obviamente não leva em conta a distribuição espacial dessas cores nas imagens (ou seja, as formas). A detecção de borda seguida por algum tipo de segmentação (ou seja, escolhendo as formas) pode fornecer um padrão para correspondência com outra imagem. Você pode usar matrizes de coocurência para comparar texturas, considerando as imagens como matrizes de valores de pixel e comparando essas matrizes. Existem bons livros sobre correspondência de imagens e visão de máquina - uma pesquisa na Amazon encontrará alguns.

Espero que isto ajude!

4
Ben

Algumas soluções de software de reconhecimento de imagem, na verdade, não são puramente baseadas em algoritmos, mas utilizam o conceito de rede neural . Confira http://en.wikipedia.org/wiki/Artificial_neural_network e nomeadamente o NeuronDotNet, que também inclui exemplos interessantes: http://neurondotnet.freehostia.com/index.html =

3
petr k.

Há pesquisas relacionadas usando redes neurais de Kohonen/mapas auto-organizados

Tanto mais sistemas acadêmicos (Google for PicSOM) quanto menos acadêmicos
( http://www.generation5.org/content/2004/aiSomPic.asp , (possivelmente não adequado para todos os ambientes de trabalho)) existem apresentações.

3
EPa

O cálculo da soma dos quadrados das diferenças dos valores de cor dos pixels de uma versão drasticamente reduzida (por exemplo: 6x6 pixels) funciona bem. Imagens idênticas produzem 0, imagens semelhantes geram números pequenos, imagens diferentes geram números grandes.

A idéia dos outros caras acima de entrar no YUV parece intrigante - enquanto minha ideia funciona muito bem, quero que minhas imagens sejam calculadas como "diferentes" para que produzam um resultado correto - mesmo da perspectiva de um observador cego em cores.

3
chris

Isso soa como um problema de visão. Você pode querer examinar o Adaptive Boosting, bem como o algoritmo de extração de linha de queimaduras. Os conceitos nesses dois devem ajudar na abordagem desse problema. A detecção de borda é um local ainda mais simples para começar se você não conhece os algoritmos de visão, pois explica o básico.

Quanto aos parâmetros para categorização:

  • Paleta de cores e localização (cálculo de gradiente, histograma de cores)
  • Formas contidas (Ada. Reforço/treinamento para detectar formas)
2
willasaywhat

Dependendo da quantidade de resultados precisos que você precisa, você pode simplesmente quebrar as imagens em blocos de n x n pixels e analisá-las. Se você obtiver resultados diferentes no primeiro bloco, não poderá parar o processamento, resultando em algumas melhorias de desempenho.

Para analisar os quadrados, você pode, por exemplo, obter a soma dos valores das cores.

2
JValente

Desculpas por ingressar mais tarde na discussão.

Podemos até usar a metodologia ORB para detectar pontos de características semelhantes entre duas imagens. O link a seguir fornece a implementação direta do ORB em python

http://scikit-image.org/docs/dev/auto_examples/plot_orb.html

Até o openCV tem implementação direta do ORB. Se você tiver mais informações, siga o artigo de pesquisa abaixo.

https://www.researchgate.net/publication/292157133_Image_Matching_Using_SIFT_SURF_BRIEF_and_ORB_Performance_Comparison_for_Distorted_Images

1
Vivek Srinivasan

Achei este artigo muito útil para explicar como funciona:

http://www.hackerfactor.com/blog/index.php?/archives/432-Looks-Like-It.html

1
andi

Você pode executar algum tipo de estimativa de movimento de correspondência de blocos entre as duas imagens e medir a soma geral dos resíduos e dos custos do vetor de movimento (como faria em um codificador de vídeo). Isso compensaria o movimento; para pontos de bônus, faça a estimativa de movimento de transformação afim (compensa zooms e alongamentos e similares). Você também pode fazer blocos sobrepostos ou fluxo óptico.

1
Dark Shikari

Como primeira passagem, você pode tentar usar histogramas de cores. No entanto, você realmente precisa restringir o domínio do problema. A correspondência genérica de imagens é um problema muito difícil.

1
Dima

Há algumas boas respostas no outro tópico sobre isso, mas me pergunto se algo envolvendo uma análise espectral funcionaria. Ou seja, divida a imagem nas informações de fase e amplitude e compare-as. Isso pode evitar alguns problemas com diferenças de corte, transformação e intensidade. De qualquer forma, sou apenas eu a especular, já que isso parece ser um problema interessante. Se você pesquisou http://scholar.google.com Tenho certeza de que poderá apresentar vários trabalhos sobre isso.

0
dbrien