covid
Buscar en
Ingeniería, Investigación y Tecnología
Toda la web
Inicio Ingeniería, Investigación y Tecnología Re-identificación de personas a través de sus características soft-biométric...
Información de la revista

Estadísticas

Siga este enlace para acceder al texto completo del artículo

Re-identificación de personas a través de sus características soft-biométricas en un entorno multi-cámara de video-vigilancia
People Re-Identification Based on Soft-Biometrics Features in Multi-Camera Surveillance Scenario
Moctezuma-Ochoa Daniela Alejandra
Catedrática CONACYT Laboratorio Nacional de Geo-Inteligencia Territorial Centro GEO, México
Leído
6632
Veces
se ha leído el artículo
886
Total PDF
5746
Total HTML
Compartir estadísticas
 array:23 [
  "pii" => "S1405774316300105"
  "issn" => "14057743"
  "doi" => "10.1016/j.riit.2016.06.010"
  "estado" => "S300"
  "fechaPublicacion" => "2016-04-01"
  "aid" => "63"
  "copyrightAnyo" => "2016"
  "documento" => "article"
  "crossmark" => 0
  "licencia" => "http://creativecommons.org/licenses/by-nc-nd/4.0/"
  "subdocumento" => "fla"
  "cita" => "Revista Ingeniería Investigación y Tecnología. 2016;17:257-71"
  "abierto" => array:3 [
    "ES" => true
    "ES2" => true
    "LATM" => true
  ]
  "gratuito" => true
  "lecturas" => array:2 [
    "total" => 2232
    "formatos" => array:3 [
      "EPUB" => 30
      "HTML" => 1861
      "PDF" => 341
    ]
  ]
  "itemSiguiente" => array:18 [
    "pii" => "S1405774316300117"
    "issn" => "14057743"
    "doi" => "10.1016/j.riit.2016.06.011"
    "estado" => "S300"
    "fechaPublicacion" => "2016-04-01"
    "aid" => "64"
    "documento" => "article"
    "crossmark" => 0
    "licencia" => "http://creativecommons.org/licenses/by-nc-nd/4.0/"
    "subdocumento" => "fla"
    "cita" => "Revista Ingeniería Investigación y Tecnología. 2016;17:273-82"
    "abierto" => array:3 [
      "ES" => true
      "ES2" => true
      "LATM" => true
    ]
    "gratuito" => true
    "lecturas" => array:2 [
      "total" => 1810
      "formatos" => array:3 [
        "EPUB" => 38
        "HTML" => 1520
        "PDF" => 252
      ]
    ]
    "es" => array:12 [
      "idiomaDefecto" => true
      "titulo" => "La modulación espacial, una comparación de las técnicas básicas de transmisión"
      "tienePdf" => "es"
      "tieneTextoCompleto" => "es"
      "tieneResumen" => array:2 [
        0 => "es"
        1 => "en"
      ]
      "paginas" => array:1 [
        0 => array:2 [
          "paginaInicial" => "273"
          "paginaFinal" => "282"
        ]
      ]
      "titulosAlternativos" => array:1 [
        "en" => array:1 [
          "titulo" => "Spatial Modulation, a Comparison of Basic Transmission Techniques"
        ]
      ]
      "contieneResumen" => array:2 [
        "es" => true
        "en" => true
      ]
      "contieneTextoCompleto" => array:1 [
        "es" => true
      ]
      "contienePdf" => array:1 [
        "es" => true
      ]
      "resumenGrafico" => array:2 [
        "original" => 0
        "multimedia" => array:7 [
          "identificador" => "fig0015"
          "etiqueta" => "Figura 3"
          "tipo" => "MULTIMEDIAFIGURA"
          "mostrarFloat" => true
          "mostrarDisplay" => false
          "figura" => array:1 [
            0 => array:4 [
              "imagen" => "gr3.jpeg"
              "Alto" => 1273
              "Ancho" => 1592
              "Tamanyo" => 259081
            ]
          ]
          "descripcion" => array:1 [
            "es" => "<p id="spar0030" class="elsevierStyleSimplePara elsevierViewall">Eficiencia espectral en bpcu considerando M&#61;16&#46;</p>"
          ]
        ]
      ]
      "autores" => array:1 [
        0 => array:2 [
          "autoresLista" => "Castillo-Soria Francisco Rub&#233;n, S&#225;nchez-Garc&#237;a Jaime, Parra-Michel Ram&#243;n, Flores-Troncoso Jorge, Fern&#225;ndez-Torres Gustavo"
          "autores" => array:5 [
            0 => array:2 [
              "nombre" => "Castillo-Soria Francisco"
              "apellidos" => "Rub&#233;n"
            ]
            1 => array:2 [
              "nombre" => "S&#225;nchez-Garc&#237;a"
              "apellidos" => "Jaime"
            ]
            2 => array:2 [
              "nombre" => "Parra-Michel"
              "apellidos" => "Ram&#243;n"
            ]
            3 => array:2 [
              "nombre" => "Flores-Troncoso"
              "apellidos" => "Jorge"
            ]
            4 => array:2 [
              "nombre" => "Fern&#225;ndez-Torres"
              "apellidos" => "Gustavo"
            ]
          ]
        ]
      ]
    ]
    "idiomaDefecto" => "es"
    "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S1405774316300117?idApp=UINPBA00004N"
    "url" => "/14057743/0000001700000002/v1_201607070020/S1405774316300117/v1_201607070020/es/main.assets"
  ]
  "itemAnterior" => array:18 [
    "pii" => "S1405774316300099"
    "issn" => "14057743"
    "doi" => "10.1016/j.riit.2016.06.009"
    "estado" => "S300"
    "fechaPublicacion" => "2016-04-01"
    "aid" => "62"
    "documento" => "article"
    "crossmark" => 0
    "licencia" => "http://creativecommons.org/licenses/by-nc-nd/4.0/"
    "subdocumento" => "fla"
    "cita" => "Revista Ingenier&#237;a Investigaci&#243;n y Tecnolog&#237;a. 2016;17:251-6"
    "abierto" => array:3 [
      "ES" => true
      "ES2" => true
      "LATM" => true
    ]
    "gratuito" => true
    "lecturas" => array:2 [
      "total" => 2410
      "formatos" => array:3 [
        "EPUB" => 40
        "HTML" => 1893
        "PDF" => 477
      ]
    ]
    "es" => array:12 [
      "idiomaDefecto" => true
      "titulo" => "An&#225;lisis para la obtenci&#243;n de hidr&#243;geno a partir de biog&#225;s proveniente de la fermentaci&#243;n de bebidas naturales"
      "tienePdf" => "es"
      "tieneTextoCompleto" => "es"
      "tieneResumen" => array:2 [
        0 => "es"
        1 => "en"
      ]
      "paginas" => array:1 [
        0 => array:2 [
          "paginaInicial" => "251"
          "paginaFinal" => "256"
        ]
      ]
      "titulosAlternativos" => array:1 [
        "en" => array:1 [
          "titulo" => "Analysis for Obtaining Hydrogen from Biogas by Means of the Fermentation of Natural Beverages"
        ]
      ]
      "contieneResumen" => array:2 [
        "es" => true
        "en" => true
      ]
      "contieneTextoCompleto" => array:1 [
        "es" => true
      ]
      "contienePdf" => array:1 [
        "es" => true
      ]
      "resumenGrafico" => array:2 [
        "original" => 0
        "multimedia" => array:7 [
          "identificador" => "fig0020"
          "etiqueta" => "Figura 4"
          "tipo" => "MULTIMEDIAFIGURA"
          "mostrarFloat" => true
          "mostrarDisplay" => false
          "figura" => array:1 [
            0 => array:4 [
              "imagen" => "gr4.jpeg"
              "Alto" => 740
              "Ancho" => 979
              "Tamanyo" => 159284
            ]
          ]
          "descripcion" => array:1 [
            "es" => "<p id="spar0035" class="elsevierStyleSimplePara elsevierViewall">Muestra de bacterias en pulque&#44; muestra saturada objetivo 40X&#44; caracterizaci&#243;n del g&#233;nero Zymomonas &#40;ovalo&#41;&#44; Saccharomyces &#40;triangulo&#41; y Leuconostoc &#40;rect&#225;ngulo&#41;&#46;</p>"
          ]
        ]
      ]
      "autores" => array:1 [
        0 => array:2 [
          "autoresLista" => "Griselda Argelia Rivera-Vargas, Yasuhiro Matsumoto-Kuwabara, Rafael Baquero-Parra"
          "autores" => array:3 [
            0 => array:2 [
              "nombre" => "Griselda Argelia"
              "apellidos" => "Rivera-Vargas"
            ]
            1 => array:2 [
              "nombre" => "Yasuhiro"
              "apellidos" => "Matsumoto-Kuwabara"
            ]
            2 => array:2 [
              "nombre" => "Rafael"
              "apellidos" => "Baquero-Parra"
            ]
          ]
        ]
      ]
    ]
    "idiomaDefecto" => "es"
    "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S1405774316300099?idApp=UINPBA00004N"
    "url" => "/14057743/0000001700000002/v1_201607070020/S1405774316300099/v1_201607070020/es/main.assets"
  ]
  "es" => array:20 [
    "idiomaDefecto" => true
    "titulo" => "Re-identificaci&#243;n de personas a trav&#233;s de sus caracter&#237;sticas soft-biom&#233;tricas en un entorno multi-c&#225;mara de video-vigilancia"
    "tieneTextoCompleto" => true
    "paginas" => array:1 [
      0 => array:2 [
        "paginaInicial" => "257"
        "paginaFinal" => "271"
      ]
    ]
    "autores" => array:1 [
      0 => array:3 [
        "autoresLista" => "Moctezuma-Ochoa Daniela Alejandra"
        "autores" => array:1 [
          0 => array:3 [
            "nombre" => "Moctezuma-Ochoa Daniela"
            "apellidos" => "Alejandra"
            "email" => array:1 [
              0 => "dmoctezuma&#64;centrogeo&#46;edu&#46;mx"
            ]
          ]
        ]
        "afiliaciones" => array:1 [
          0 => array:2 [
            "entidad" => "Catedr&#225;tica CONACYT Laboratorio Nacional de Geo-Inteligencia Territorial Centro GEO&#44; M&#233;xico"
            "identificador" => "aff0005"
          ]
        ]
      ]
    ]
    "titulosAlternativos" => array:1 [
      "en" => array:1 [
        "titulo" => "People Re-Identification Based on Soft-Biometrics Features in Multi-Camera Surveillance Scenario"
      ]
    ]
    "resumenGrafico" => array:2 [
      "original" => 0
      "multimedia" => array:7 [
        "identificador" => "fig0035"
        "etiqueta" => "Figura 7"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "gr7.jpeg"
            "Alto" => 957
            "Ancho" => 2204
            "Tamanyo" => 331128
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0050" class="elsevierStyleSimplePara elsevierViewall">Ejemplo de reconocimiento de un sospechoso en 4 diferentes c&#225;maras</p>"
        ]
      ]
    ]
    "textoCompleto" => "<span class="elsevierStyleSections"><span id="sec0005" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0025">Introducci&#243;n</span><p id="par0005" class="elsevierStylePara elsevierViewall">La necesidad de incrementar la seguridad se deja sentir en todo el mundo&#44; no solo por compa&#241;&#237;as privadas sino tambi&#233;n por los gobiernos y las instituciones p&#250;blicas&#46; Debido a esto&#44; &#250;ltimamente los sistemas de video vigilancia inteligente se han convertido en una importante &#225;rea de investigaci&#243;n gracias a su aplicaci&#243;n en el sector de la seguridad&#46; La video vigilancia es&#44; de hecho&#44; una tecnolog&#237;a clave para la lucha contra el terrorismo y el crimen&#44; adem&#225;s es de gran ayuda en la seguridad p&#250;blica&#46; Tratando de responder a estas necesidades de seguridad&#44; la comunidad cient&#237;fica se centra en detectar&#44; seguir e identificar a las personas&#44; as&#237; como identificar su comportamiento &#40;<a class="elsevierStyleCrossRef" href="#bib0005">Alahi <span class="elsevierStyleItalic">et al</span>&#46;&#44; 2010</a>&#41;&#46; La video vigilancia tradicional consiste en monitorear el comportamiento&#44; actividades y otros cambios en el entorno&#44; por medio de operadores visuales del sistema que intentan proporcionar seguridad a la zona vigilada&#46; La video vigilancia es muy &#250;til para el gobierno&#44; el cumplimiento de las leyes y para mantener el control social&#44; reconocer y monitorear amenazas y prevenir o investigar actividades criminales &#40;<a class="elsevierStyleCrossRef" href="#bib0095">Union&#44; 2009&#41;</a>&#46; En t&#233;rminos generales&#44; la video vigilancia de una zona amplia y cr&#237;tica requiere de un sistema de m&#250;ltiples c&#225;maras que sirvan para monitorear a las personas de forma constante &#40;Huang <span class="elsevierStyleItalic">et al</span>&#46;&#44; 2008&#41;&#46;</p><p id="par0010" class="elsevierStylePara elsevierViewall">Por otro lado&#44; la video vigilancia inteligente surgi&#243; en los &#250;ltimos a&#241;os debido al aumento en el n&#250;mero de c&#225;maras instaladas en diferentes edificios&#44; as&#237; como a la necesidad de mayor seguridad y a la aceptaci&#243;n&#44; cada vez mayor&#44; de la sociedad hacia este tipo de sistemas&#46; A diferencia de la video vigilancia tradicional&#44; la video vigilancia inteligente es m&#225;s que un conjunto de monitores conectado a varias c&#225;maras&#44; de hecho&#44; actualmente esta se puede considerar como una poderosa tecnolog&#237;a para el control de la seguridad&#46; La principal diferencia entre el sistema tradicional y el sistema de video vigilancia inteligente radica en el an&#225;lisis autom&#225;tico de la escena&#44; dicho an&#225;lisis autom&#225;tico puede comprender diferentes tareas importantes para la seguridad en general&#44; algunas de estas tareas son&#58; detecci&#243;n&#44; seguimiento e identificaci&#243;n de personas&#44; detecci&#243;n de objetos abandonados&#44; an&#225;lisis del comportamiento de las personas&#44; an&#225;lisis de las trayectorias&#44; entre otras &#40;Garc&#237;a y Mart&#237;nez&#44; 2010&#41;&#46; La identificaci&#243;n de personas es una de las principales tareas de un sistema de video vigilancia inteligente&#44; para ello&#44; normalmente se utilizan caracter&#237;sticas biom&#233;tricas&#46; Las caracter&#237;sticas biom&#233;tricas son aquellos rasgos fisiol&#243;gicos que hacen &#250;nicos a los seres humanos como la cara&#44; la huella dactilar&#44; la voz&#44; la retina&#44; etc&#233;tera&#46; Sin embargo&#44; recientemente se definieron otro tipo de caracter&#237;sticas&#44; las cuales se consideran adecuadas para las condiciones cr&#237;ticas a las que se enfrentan los sistemas de video vigilancia inteligente&#46; Estas caracter&#237;sticas son las soft-biom&#233;tricas&#44; que a pesar de no tener el alto poder discriminatorio de las biom&#233;tricas&#44; son de gran ayuda para definir la identidad de las personas&#46; Algunas de estas caracter&#237;sticas son por ejemplo&#58; el color de piel&#44; de cabello&#44; la ropa&#44; la altura&#44; la forma de andar&#44; cicatrices&#44; tatuajes&#44; etc&#233;tera&#46; Por lo tanto&#44; las caracter&#237;sticas soft-biom&#233;tricas son aquellas que proveen cierta informaci&#243;n sobre las personas&#44; pero que carecen de suficiente permanencia y de un alto nivel distintivo para diferenciar a un individuo de otro&#44; especialmente cuando se utiliza cada una de forma separada &#40;<a class="elsevierStyleCrossRef" href="#bib0040">Jain <span class="elsevierStyleItalic">et al</span>&#46;&#44; 2004</a>&#41;&#46; Es decir&#44; a mayor cantidad de caracter&#237;sticas soft-biom&#233;tricas utilizadas&#44; mejor ser&#225; el rendimiento del sistema&#46; Por ejemplo&#44; el color de cabello por s&#237; solo no ayuda a definir la identidad de una persona&#44; pero si se combina el color de cabello con la altura&#44; aumentar&#225; el poder distintivo para diferenciar a una persona de otra&#46; Estas caracter&#237;sticas son id&#243;neas para las situaciones complejas que se encuentran en las zonas de video vigilancia&#44; como es la adquisici&#243;n a distancia de las caracter&#237;sticas&#44; el hecho de que la persona no est&#225; consciente de que es observada &#40;adquisici&#243;n no intrusiva&#41;&#44; la baja resoluci&#243;n y la mala calidad de las im&#225;genes&#44; los cambios de iluminaci&#243;n&#44; el gran cambio de apariencia entre las diversas c&#225;maras&#44; el zoom&#44; la variaci&#243;n en la perspectiva&#44; entre otros&#46; En la <a class="elsevierStyleCrossRef" href="#fig0005">figura 1</a> se muestran algunas im&#225;genes de un sistema de c&#225;maras de video vigilancia&#46; En esta figura&#44; se puede observar la mala calidad en las im&#225;genes que conlleva un sistema multi-c&#225;mara de este tipo&#46;</p><elsevierMultimedia ident="fig0005"></elsevierMultimedia><p id="par0015" class="elsevierStylePara elsevierViewall">En este art&#237;culo se presenta un sistema completo de video vigilancia inteligente&#46; Este sistema realiza la re-identificaci&#243;n de personas en un entorno de m&#250;ltiples c&#225;maras&#59; es decir&#44; una vez que se ha identificado en un inicio &#40;o en un punto determinado&#41; a una persona&#44; se busca volver a identificarla a lo largo de su estancia o recorrido en la zona vigilada&#46; Para llevar a cabo esta labor&#44; el desarrollo y funcionamiento de este sistema comprende dos principales etapas de desarrollo&#46; Primero&#44; se propone un m&#233;todo de detecci&#243;n de personas&#44; ya que en primer lugar se debe determinar qu&#233; de la escena es una persona y qu&#233; no&#46; En segundo lugar&#44; se propone un modelo de apariencia para la identificaci&#243;n de las personas&#44; basado en sus caracter&#237;sticas soft-biom&#233;tricas&#46; Para los experimentos se utilizaron varias bases de datos p&#250;blicas y est&#225;ndar en la comunidad cient&#237;fica de video vigilancia inteligente&#58; PETS 2006&#44; PETS 2007&#44; PETS 2009 y CAVIAR&#46; Adem&#225;s&#44; se adquiri&#243; una base de datos propia&#44; MUBA &#40;<span class="elsevierStyleItalic">Multi-Camera Barajas Airport</span>&#41;&#44; en el aeropuerto de Madrid&#44; Barajas&#44; con la colaboraci&#243;n del personal de AENA y de la guardia civil espa&#241;ola&#46;</p><p id="par0020" class="elsevierStylePara elsevierViewall">Antes de pasar a la descripci&#243;n de los m&#233;todos propuestos y comparados&#44; en la <a class="elsevierStyleCrossRef" href="#tbl0005">tabla 1</a> se muestran las principales caracter&#237;sticas de las bases de datos utilizadas en este trabajo&#46; Aqu&#237; se detallan varias caracter&#237;sticas importantes como&#58; la resoluci&#243;n&#44; escenario y n&#250;mero de im&#225;genes utilizadas de cada base de datos&#46; El n&#250;mero de im&#225;genes utilizadas var&#237;a dependiendo el tipo de entorno&#44; mono o multi-c&#225;mara&#44; en el caso de la detecci&#243;n de personas solo se utilizaron las im&#225;genes mono-c&#225;mara&#46; Para la etapa de identificaci&#243;n con soft-biom&#233;tricos se utilizaron las im&#225;genes del entorno multi-c&#225;mara&#46;</p><elsevierMultimedia ident="tbl0005"></elsevierMultimedia></span><span id="sec0010" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0030">Sistema propuesto</span><p id="par0025" class="elsevierStylePara elsevierViewall">Como se mencion&#243; previamente&#44; para el desarrollo de este sistema se llevaron a cabo dos principales etapas&#58; detecci&#243;n de personas y la generaci&#243;n de un modelo de apariencia basado en soft-biom&#233;tricos&#46; Todos los m&#233;todos propuestos en este sistema se probaron con diversas bases de datos p&#250;blicas y conocidas a nivel internacional por la comunidad cient&#237;fica de video vigilancia inteligente&#46; Adem&#225;s&#44; se adquiri&#243; una base de datos en el aeropuerto Internacional de Madrid&#44; MUBA&#44; con un total de ocho c&#225;maras colocadas a lo largo de la terminal 4&#46;</p><elsevierMultimedia ident="tbl0010"></elsevierMultimedia></span><span id="sec0015" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0035">Detecci&#243;n de personas</span><p id="par0030" class="elsevierStylePara elsevierViewall">El m&#233;todo que se propone para la detecci&#243;n de personas se basa en la combinaci&#243;n del m&#233;todo HOG &#40;<span class="elsevierStyleItalic">histograma de orientaciones del gradiente</span>&#41; y en los filtros de Gabor&#46; Se decidi&#243; utilizar el m&#233;todo HOG porque es uno de los m&#233;todos de detecci&#243;n de objetos m&#225;s utilizados&#44; es una herramienta base para proponer nuevas t&#233;cnicas en la literatura&#46; Por otro lado&#44; la utilizaci&#243;n de los filtros de Gabor se propone para realzar las caracter&#237;sticas principales que representan a la figura humana&#46;</p><p id="par0335" class="elsevierStylePara elsevierViewall">En esta secci&#243;n se describen los m&#233;todos alternativos que se seleccionaron como base para una comparaci&#243;n del desempe&#241;o del m&#233;todo propuesto&#46; Estos m&#233;todos alternativos se seleccionaron porque que reportan buenos resultados y se utilizan en la literatura&#46; Para las pruebas de todos los m&#233;todos se emplearon cuatro bases de datos p&#250;blicas&#58; PETS 2006&#44; PETS 2007&#44; PETS 2009 y CAVIAR&#46; A continuaci&#243;n se describe cada aspecto del m&#233;todo de detecci&#243;n de personas propuesto&#44; HoGG &#40;<span class="elsevierStyleItalic">histograma de orientaciones del gradiente con Gabor</span>&#41;&#46;</p><span id="sec0020" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0040">M&#233;todo HoGG</span><p id="par0040" class="elsevierStylePara elsevierViewall">El m&#233;todo HoGG&#44; se basa en la combinaci&#243;n del m&#233;todo <span class="elsevierStyleItalic">Histogram of Oriented Gradients</span> &#40;<a class="elsevierStyleCrossRef" href="#bib0015">Dalal y Triggs&#44; 2005</a>&#41; y los filtros de Gabor &#40;<a class="elsevierStyleCrossRef" href="#bib0060">Lades <span class="elsevierStyleItalic">et al</span>&#46;&#44; 1993</a>&#41;&#46; Los efectos del pre-procesamiento&#44; utilizando los filtros de Gabor&#44; se analizan a detalle&#44; as&#237; como la mejora experimentada con el realce de la informaci&#243;n en las im&#225;genes y la influencia que se ejerce sobre las caracter&#237;sticas extra&#237;das&#46; En la <a class="elsevierStyleCrossRef" href="#fig0010">figura 2</a>&#44; se presenta el esquema general del funcionamiento del m&#233;todo HoGG&#46; Se pueden ver los diferentes pasos para detectar a una persona&#46;</p><elsevierMultimedia ident="fig0010"></elsevierMultimedia><p id="par0045" class="elsevierStylePara elsevierViewall">Primero se detectan los objetos en movimiento en la imagen&#44; posteriormente se hace la substracci&#243;n del fondo de la imagen&#44; una vez que se tienen los objetos en movimiento se utilizan los filtros de Gabor para pre-procesarlos&#44; despu&#233;s se extraen las caracter&#237;sticas con el algoritmo HOG&#44; y finalmente con un clasificador simple se determina si el objeto en movimiento es una persona o no&#46;</p><p id="par0050" class="elsevierStylePara elsevierViewall">Para entender mejor el funcionamiento del m&#233;todo propuesto HoGG es necesario conocer tanto los filtros de Gabor como el m&#233;todo base HOG&#46; M&#225;s adelante se describir&#225;n con m&#225;s detalle los dos componentes del m&#233;todo propuesto&#46;</p></span><span id="sec0025" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0045">Filtros de Gabor</span><p id="par0055" class="elsevierStylePara elsevierViewall">Tomando en cuenta la complejidad de la detecci&#243;n de personas en escenarios reales&#44; los filtros de Gabor se seleccionaron para transformar la imagen de entrada&#46; Los filtros de Gabor son exitosamente empleados en muchas aplicaciones de an&#225;lisis de im&#225;genes como an&#225;lisis de textura&#44; verificaci&#243;n facial&#44; reconocimiento de caracteres y recuperaci&#243;n de im&#225;genes por contenido&#46; Una de las propiedades m&#225;s importantes de los filtros de Gabor es que realizan la localizaci&#243;n &#243;ptima tanto en el dominio espacial como en el de la frecuencia &#40;<a class="elsevierStyleCrossRef" href="#bib0110">Yuan <span class="elsevierStyleItalic">et al</span>&#46;&#44; 2003</a>&#41;&#46; Los filtros de Gabor trabajan como una especie de detector de bordes en una base no-ortogonal&#44; por lo tanto&#44; cada caracter&#237;stica extra&#237;da por un filtro se correlaciona con otra caracter&#237;stica generada por otro&#46; Es decir&#44; la informaci&#243;n se resalta en algunas orientaciones&#44; pero tanto la relaci&#243;n de vecindad y de orientaci&#243;n se mantienen en las caracter&#237;sticas extra&#237;das&#46; Los filtros de Gabor enfatizan las caracter&#237;sticas de la imagen sobre los componentes de la misma frecuencia&#44; mientras que rechaza otros componentes discriminando sub-partes de los objetos y extrayendo caracter&#237;sticas locales invariantes a cambios de escala&#44; rotaci&#243;n&#44; traslaci&#243;n e iluminaci&#243;n &#40;<a class="elsevierStyleCrossRef" href="#bib0055">Kyrki <span class="elsevierStyleItalic">et al</span>&#46;&#44; 2004</a>&#41;&#46; Todo lo anterior es especialmente adecuado en el entorno de video vigilancia&#44; donde hay grandes cambios en la apariencia de los objetos&#46; Adem&#225;s&#44; los filtros de Gabor capturan informaci&#243;n en una &#225;rea local y combinan la respuesta de varios filtros a diferentes orientaciones&#44; frecuencias y escalas&#44; por lo tanto&#44; son adecuados para representar objetos complejos&#44; ya que la informaci&#243;n del objeto completo se mantiene y enriquece debido a la combinaci&#243;n de la respuesta de todos los filtros &#40;Kr&#252;ger&#44; 2002&#41;&#46; Lo planteado por <a class="elsevierStyleCrossRef" href="#bib0060">Lades <span class="elsevierStyleItalic">et al&#46;</span> &#40;1993&#41;</a>&#44; se consider&#243; un banco de filtros de Gabor de 5 frecuencias y 8 orientaciones&#46; La expresi&#243;n anal&#237;tica de los filtros de Gabor se puede escribir de acuerdo con la ecuaci&#243;n 1&#44; donde<elsevierMultimedia ident="eq0005"></elsevierMultimedia></p><p id="par0060" class="elsevierStylePara elsevierViewall">donde</p><p id="par0065" class="elsevierStylePara elsevierViewall"><span class="elsevierStyleItalic">x</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">r</span></span> &#61; &#40;<span class="elsevierStyleItalic">x &#8211; x</span><span class="elsevierStyleInf">0</span>&#41; &#61; cos <span class="elsevierStyleItalic">&#952;</span> &#43; &#40;<span class="elsevierStyleItalic">y &#8722; y</span><span class="elsevierStyleInf">0</span>&#41; sin <span class="elsevierStyleItalic">&#952;</span> y <span class="elsevierStyleItalic">y</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">r</span></span></p><p id="par0070" class="elsevierStylePara elsevierViewall">&#61; <span class="elsevierStyleItalic">&#8722;</span> &#40;<span class="elsevierStyleItalic">x &#8722;x</span><span class="elsevierStyleInf">0</span>&#41; sin <span class="elsevierStyleItalic">&#952;&#43;</span> &#40;<span class="elsevierStyleItalic">y &#8722; y</span><span class="elsevierStyleInf">0</span>&#41; cos <span class="elsevierStyleItalic">&#952;&#59;</span></p><p id="par0075" class="elsevierStylePara elsevierViewall">x<span class="elsevierStyleInf">0</span> y y<span class="elsevierStyleInf">0</span> &#61; la posici&#243;n en el espacio de la wavelet</p><p id="par0080" class="elsevierStylePara elsevierViewall">f<span class="elsevierStyleInf">0</span> &#61; frecuencia central de la onda plana</p><p id="par0085" class="elsevierStylePara elsevierViewall">&#963;<span class="elsevierStyleInf">x</span> &#61; determina el ancho del eje mayor de la envolvente Gaussiana</p><p id="par0090" class="elsevierStylePara elsevierViewall">&#963;<span class="elsevierStyleInf">y</span> &#61; determina el ancho del eje menor de la envolvente Gaussiana</p><p id="par0095" class="elsevierStylePara elsevierViewall">&#952; &#61; &#225;ngulo &#40;contrario de las manecillas del reloj&#41; entre la direcci&#243;n de propagaci&#243;n de la onda <span class="elsevierStyleItalic">y</span> el eje <span class="elsevierStyleItalic">x</span></p><p id="par0100" class="elsevierStylePara elsevierViewall">&#981; &#61; desplazamiento de la fase de la onda &#40;<a class="elsevierStyleCrossRef" href="#bib0020">Gabor&#44; 1946</a>&#41;&#46;</p><p id="par0105" class="elsevierStylePara elsevierViewall">Con el conjunto de filtros de Gabor generados para el pre-procesamiento de las im&#225;genes de entrada&#44; el rendimiento del m&#233;todo HOG se mejora&#46; Como se coment&#243; previamente&#44; se generaron 40 filtros de Gabor &#40;5 frecuencias y 8 orientaciones&#41;&#59; sin embargo&#44; el uso de los 40 filtros requiere de un alto tiempo de procesamiento&#44; lo que hace ineficiente su utilizaci&#243;n para la detecci&#243;n de personas en tiempo real y en entornos de video vigilancia&#46; Por ello se realiz&#243; una selecci&#243;n de los filtros que obtuvieran una mejor respuesta empleando un subconjunto de las bases de datos utilizadas&#44; esto se explica a detalle en la secci&#243;n de experimentos&#46;</p></span><span id="sec0030" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0050">Histograma de las orientaciones del gradiente&#58; HOG</span><p id="par0110" class="elsevierStylePara elsevierViewall">Como se mencion&#243;&#44; debido a que el m&#233;todo del <span class="elsevierStyleItalic">histograma de las orientaciones del gradiente</span> &#40;HOG&#41; se ha empleado satisfactoriamente en muchos trabajos de la literatura&#44; se emple&#243; como parte del m&#233;todo de detecci&#243;n de personas propuesto en este trabajo&#46; El m&#233;todo HOG se basa en un histograma que acumula las orientaciones del gradiente en cada una de las ventanas de extracci&#243;n que se definen en la imagen&#46; Este histograma acumular&#225; el n&#250;mero de orientaciones&#44; de 0 a 180 grados&#44; contabilizadas en cada ventana&#46; Con el algoritmo HOG la imagen se divide en celdas de dimensi&#243;n 16&#215;16 con un solapamiento de 8 p&#237;xeles entre ellas&#46; Dado que las dimensiones de las im&#225;genes con las que se trabaj&#243; son 32 &#215; 64 p&#237;xeles&#44; se establecieron 21 ventanas de extracci&#243;n por cada imagen&#46; Un ejemplo del establecimiento de estas ventanas de extracci&#243;n se muestra en la <a class="elsevierStyleCrossRef" href="#fig0015">figura 3</a>&#46;</p><elsevierMultimedia ident="fig0015"></elsevierMultimedia><p id="par0115" class="elsevierStylePara elsevierViewall">Una vez que se establecen estas ventanas de extracci&#243;n se procede a normalizarlas&#44; tal que su media sea 0 y su varianza 1 para que todos los valores integren un rango similar&#46; Para lograr esta normalizaci&#243;n se procede a generar la imagen integral y la imagen integral al cuadrado&#46; Sea <span class="elsevierStyleItalic">img&#40;x&#44; y&#41;</span> el valor correspondiente a la ventana de extracci&#243;n de la imagen <span class="elsevierStyleItalic">img</span> en la columna <span class="elsevierStyleItalic">x</span> y rengl&#243;n <span class="elsevierStyleItalic">y</span>&#44; la imagen integral se calcula como indica la ecuaci&#243;n 2<elsevierMultimedia ident="eq0010"></elsevierMultimedia></p><p id="par0120" class="elsevierStylePara elsevierViewall">La imagen integral al cuadrado se calcula elevando al cuadrado cada elemento de la imagen integral&#46; Una vez calculadas la imagen integral y la imagen integral al cuadrado&#44; la normalizaci&#243;n de cada ventana de extracci&#243;n se realiza como se indica la ecuaci&#243;n 3<elsevierMultimedia ident="eq0015"></elsevierMultimedia></p><p id="par0125" class="elsevierStylePara elsevierViewall">donde &#956; es la media y &#963; la desviaci&#243;n est&#225;ndar&#46; Posteriormente se realiza el c&#225;lculo de la orientaci&#243;n y direcci&#243;n del gradiente de cada p&#237;xel en la imagen&#46; El c&#225;lculo del gradiente se consigue filtrando la imagen mediante dos m&#225;scaras unidimensionales&#58; la horizontal &#91;&#8722;1&#44; 0&#44; 1&#93; y la vertical &#91;<span class="elsevierStyleItalic">&#8722;</span>1&#44; 0&#44; 1&#93;<span class="elsevierStyleSup">T</span>&#46; Para el c&#225;lculo del histograma de orientaciones se emplea una matriz de 2&#215;2 celdas y 9 orientaciones&#44; por lo que de cada ventana de extracci&#243;n se obtendr&#225; un vector de 2 &#215; 2 &#215; 9 &#61; 36 caracter&#237;sticas&#46; Esta matriz de 2 &#215; 2 se utiliza para calcular la posici&#243;n que ocupa cada una de las caracter&#237;sticas extra&#237;das en el vector&#46; El rango de orientaciones va desde 0 hasta 180 grados&#46; De esta forma&#44; el valor acumulado en cada posici&#243;n del vector de caracter&#237;sticas es el valor de la magnitud del gradiente multiplicado por un peso situado en una matriz de pesos&#46; Para el c&#225;lculo de esta matriz de pesos se utiliza una funci&#243;n Gaussiana con sigma igual a 8&#44; que es la mitad del tama&#241;o de la ventana de extracci&#243;n&#46; La funci&#243;n Gaussiana se calcula a partir de las dimensiones de la ventana de extracci&#243;n y el resultado es una matriz de pesos de dimensi&#243;n de 16&#215;16 celdas&#46; Al finalizar todo el procedimiento se obtiene un histograma con 9 orientaciones por cada una de las 4 celdas en las que se divide cada ventana de extracci&#243;n&#46; El vector final de caracter&#237;sticas es el resultado de la concatenaci&#243;n del histograma de orientaciones de cada ventana de extracci&#243;n&#59; es decir&#44; un vector de 756 caracter&#237;sticas dado que se emplean 21 ventanas de extracci&#243;n en toda la imagen&#46; Para mayor informaci&#243;n t&#233;cnica de este algoritmo ver la publicaci&#243;n original en <a class="elsevierStyleCrossRef" href="#bib0015">Dalal y Triggs &#40;2005&#41;</a>&#46;</p></span></span><span id="sec0035" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0055">Experimentos y an&#225;lisis de los resultados</span><p id="par0130" class="elsevierStylePara elsevierViewall">Para la comparaci&#243;n del m&#233;todo propuesto&#44; HoGG&#44; se seleccionaron varios algoritmos alternativos para la detecci&#243;n de personas&#44; estos son&#58; <span class="elsevierStyleItalic">Rapid Object Detection using a Boosted Cascade of Simple Features</span> &#40;<a class="elsevierStyleCrossRef" href="#bib0105">Viola y Jones&#44; 2001</a>&#41;&#44; <span class="elsevierStyleItalic">Improvements of Object Detection using Boosted Histograms</span> &#40;<a class="elsevierStyleCrossRef" href="#bib0065">Laptev&#44; 2006</a>&#41;&#44; e <span class="elsevierStyleItalic">Histograms of Oriented Gradients for Human Detection</span> &#40;<a class="elsevierStyleCrossRef" href="#bib0015">Dalal y Triggs&#44; 2005</a>&#41;&#46; En el caso del algoritmo de Viola y Jones&#44; se utilizaron dos variantes&#44; en la primera el algoritmo se entren&#243; con un conjunto est&#225;ndar de im&#225;genes &#40;que vienen disponibles en la implementaci&#243;n de <a class="elsevierStyleCrossRef" href="#bib0090">OpenCV &#40;2013&#41;&#41;</a>&#44; mientras que en la segunda variaci&#243;n se utiliz&#243; un conjunto espec&#237;fico de im&#225;genes para el entrenamiento a partir de las bases de datos utilizadas en este trabajo&#46;</p><p id="par0135" class="elsevierStylePara elsevierViewall">El m&#233;todo de <a class="elsevierStyleCrossRef" href="#bib0105">Viola y Jones &#40;2001&#41;</a>&#44; hace uso de las caracter&#237;sticas tipo <span class="elsevierStyleItalic">haar</span> y del aprendizaje con <span class="elsevierStyleItalic">AdaBoost</span>&#44; el m&#233;todo de <a class="elsevierStyleCrossRef" href="#bib0065">Laptev &#40;2006&#41;</a> utiliza los histogramas de orientaci&#243;n del gradiente en regiones rectangulares definidas en la imagen en combinaci&#243;n con el aprendizaje tipo Boosting&#46; El m&#233;todo HOG &#40;<a class="elsevierStyleCrossRef" href="#bib0015">Dalal y Triggs&#44; 2005</a>&#41; contabiliza las orientaciones del gradiente en cada una de las ventanas de extracci&#243;n definidas en toda la imagen&#46;</p><p id="par0140" class="elsevierStylePara elsevierViewall">El objetivo del m&#233;todo <a class="elsevierStyleCrossRef" href="#bib0105">Viola y Jones &#40;2001&#41;</a> es detectar objetos de forma r&#225;pida y precisa&#46; Para ello&#44; introducen una nueva representaci&#243;n de la imagen llamada imagen integral&#44; que se utiliza tambi&#233;n en el m&#233;todo HOG&#46; Este m&#233;todo utiliza un algoritmo de aprendizaje basado en AdaBoost&#44; el cual selecciona un peque&#241;o n&#250;mero de caracter&#237;sticas visuales a partir de un conjunto mayor&#46; Adem&#225;s combina&#44; de manera incremental&#44; clasificadores complejos en forma de cascada&#44; lo que permite a las regiones del fondo de la imagen descartarse r&#225;pidamente para que de esta manera se enfoque el c&#225;lculo computacional&#44; solo en las regiones m&#225;s prometedoras&#46; El procedimiento de detecci&#243;n utiliza tres caracter&#237;sticas simples&#58; el doble rect&#225;ngulo&#44; el triple rect&#225;ngulo y el cu&#225;druple rect&#225;ngulo&#46; El doble rect&#225;ngulo es la diferencia entre la suma de los p&#237;xeles contenidos en regiones de dos rect&#225;ngulos&#59; las regiones tienen el mismo tama&#241;o y forma y est&#225;n horizontal o verticalmente adyacentes&#46; El triple rect&#225;ngulo sirve para calcular la suma dentro de los dos rect&#225;ngulos de los extremos menos la suma del rect&#225;ngulo central&#46; Las caracter&#237;sticas que se extrajeron del cu&#225;druple rect&#225;ngulo&#44; se calculan con la diferencia de las partes diagonales del rect&#225;ngulo&#46; La clasificaci&#243;n por medio de cascadas requiere poco tiempo de detecci&#243;n&#44; es decir&#44; funciona r&#225;pido&#46; La clasificaci&#243;n por medio de AdaBoost es un sistema que construye una regla de clasificaci&#243;n final usando varios clasificadores menores&#44; denominados &#8220;d&#233;biles&#8221; por su sencillez y escasa precisi&#243;n&#46; Por s&#237; solos&#44; estos clasificadores d&#233;biles&#44; no constituyen un sistema de clasificaci&#243;n eficaz debido a su alta inexactitud&#44; pero al usarlos en conjunto es posible construir un clasificador mucho m&#225;s preciso&#46; De este m&#233;todo se utiliz&#243; la implementaci&#243;n disponible en <a class="elsevierStyleCrossRef" href="#bib0090">OpenCV &#40;2013&#41;</a>&#46; OpenCV es una librer&#237;a de visi&#243;n artificial libre y originalmente desarrollada por Intel&#46; En la implementaci&#243;n de OpenCV de este m&#233;todo&#44; vienen disponibles diversos archivos de entrenamiento&#44; de caras&#44; de personas&#44; de la parte superior e inferior del cuerpo humano&#44; entre otras&#46; Por lo tanto&#44; del m&#233;todo <a class="elsevierStyleCrossRef" href="#bib0105">Viola y Jones &#40;2001&#41;</a> se utilizaron dos variaciones&#44; en la primera se emple&#243; el archivo de entrenamiento para la detecci&#243;n de personas&#44; disponible en la implementaci&#243;n de OpenCV&#44; a esta variaci&#243;n se le llamar&#225; V&#38;J-1 para futuras referencias&#46; Para la segunda variaci&#243;n&#44; se gener&#243; un nuevo archivo de entrenamiento con las im&#225;genes contenidas en las bases de datos INRIA &#40;<a class="elsevierStyleCrossRef" href="#bib0035">INRIA&#44; 2005</a>&#41; y MIT &#40;<a class="elsevierStyleCrossRef" href="#bib0075">MIT&#44; 2000&#41;</a>&#44; a esta segunda variaci&#243;n se le llamar&#225; V&#38;J-2&#46; Cabe se&#241;alar que los archivos de entrenamiento generados con nuevas bases de datos surgieron con herramientas de OpenCV creadas para ese prop&#243;sito&#46;</p><p id="par0145" class="elsevierStylePara elsevierViewall">Otro m&#233;todo utilizado para esta comparaci&#243;n fue el propuesto por <a class="elsevierStyleCrossRef" href="#bib0065">Laptev &#40;2006&#41;</a> donde se toma en cuenta un conjunto completo de regiones rectangulares dentro de la imagen para posteriormente aplicar el algoritmo HOG&#46; Este m&#233;todo tiene como objetivo la detecci&#243;n de objetos&#44; centr&#225;ndose en el problema espec&#237;fico de la detecci&#243;n de personas mediante la combinaci&#243;n de un histograma de caracter&#237;sticas locales con un clasificador AdaBoost&#46; Aqu&#237;&#44; se escoge la posici&#243;n y la forma del histograma de caracter&#237;sticas para minimizar el error en la etapa de entrenamiento&#46; Adem&#225;s&#44; se considera un conjunto completo de regiones rectangulares en una ventana normalizada del objeto y se calcula el histograma de las orientaciones del gradiente &#40;HOG&#41; para varias direcciones de cada regi&#243;n&#46; Posteriormente se aplica el procedimiento del clasificador AdaBoost para seleccionar las caracter&#237;sticas del histograma previamente calculado y aprender el objeto que se desea clasificar&#46;</p><p id="par0150" class="elsevierStylePara elsevierViewall">Para la detecci&#243;n se utiliza una t&#233;cnica de ventana de escaneo que se aplica en toda la imagen&#44; esta ventana de escaneo calcula una medida para cada parte de la imagen y el clasificador se aplica en las ventanas que mayores medidas obtuvieron&#46; Una importante contribuci&#243;n de este m&#233;todo es que se adapta a un marco de trabajo tipo <span class="elsevierStyleItalic">boosting</span>&#44; el cual intenta responder a la pregunta de si un conjunto de clasificadores d&#233;biles pueden crear&#44; en conjunto&#44; a un clasificador fuerte&#46;</p><p id="par0155" class="elsevierStylePara elsevierViewall">El tercer m&#233;todo comparado es el m&#233;todo HOG&#44; el cual se describi&#243; previamente &#40;ver secci&#243;n <span class="elsevierStyleItalic">Histograma de las orientaciones del gradiente&#58; HOG</span>&#41;&#46; Por lo tanto&#44; la comparaci&#243;n del m&#233;todo propuesto HoGG se realiza contra cuatro m&#233;todos diferentes&#58; V&#38;J-1&#44; V&#38;J-2&#44; Laptev y HOG&#46;</p><p id="par0160" class="elsevierStylePara elsevierViewall">En los experimentos se lleva a cabo una evaluaci&#243;n exhaustiva orientada a contar personas&#46; Como medida de evaluaci&#243;n del rendimiento del sistema se utiliz&#243; la medida F &#40;<span class="elsevierStyleItalic">F-measure</span>&#41;&#46; La medida F utiliza el valor de <span class="elsevierStyleItalic">Precision</span> y <span class="elsevierStyleItalic">Recall</span> y es muy &#250;til para evaluar el nivel de balance de los sistemas&#59; por ejemplo&#44; un sistema de alto nivel de seguridad que detecta pocas personas con un bajo nivel de falsas detecciones tendr&#225; una <span class="elsevierStyleItalic">precision</span> muy alta pero un <span class="elsevierStyleItalic">recall</span> muy bajo&#46; Por el contrario&#44; un sistema que detecta muchas personas correctamente&#44; pero tambi&#233;n comete muchas falsas detecciones&#44; tendr&#225; un <span class="elsevierStyleItalic">precision</span> baja y un <span class="elsevierStyleItalic">recall</span> alto&#46; El valor &#243;ptimo de la medida F es 1&#44; lo cual se da cuando <span class="elsevierStyleItalic">Precision</span> &#61; <span class="elsevierStyleItalic">Recall</span> &#61; 1 y su peor resultado es 0 &#40;<span class="elsevierStyleItalic">Precision</span> &#61; <span class="elsevierStyleItalic">Recall</span> &#61; 0&#41;&#46; Para el c&#225;lculo de estas medidas se utilizan las ecuaci&#243;nes 4&#44; 5 y 6<elsevierMultimedia ident="eq0020"></elsevierMultimedia><elsevierMultimedia ident="eq0025"></elsevierMultimedia><elsevierMultimedia ident="eq0030"></elsevierMultimedia></p></span><span id="sec0040" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0060">Selecci&#243;n de los mejores filtros de Gabor</span><p id="par0165" class="elsevierStylePara elsevierViewall">Debido a que la utilizaci&#243;n de los 40 filtros de Gabor es ineficiente para detectar personas en entornos de video vigilancia&#44; donde se requiere una respuesta r&#225;pida&#44; se realiz&#243; una prueba para determinar cu&#225;les eran los filtros que mejor resultado obten&#237;an&#46; Esta prueba consisti&#243; en lograr un resultado &#40;en <span class="elsevierStyleItalic">precision</span> y <span class="elsevierStyleItalic">recall</span>&#41; para cada filtro de manera individual&#44; es decir&#44; se pre-proces&#243; la imagen con cada filtro&#44; posteriormente se extrajeron las caracter&#237;sticas con el m&#233;todo HOG y se entren&#243; al clasificador con ellas&#46; De esta manera se obtuvo un resultado por cada uno de los 40 filtros de Gabor utilizados&#46; En la <a class="elsevierStyleCrossRef" href="#tbl0015">tabla 3</a> se muestran los resultados&#44; tanto en <span class="elsevierStyleItalic">precision</span> y <span class="elsevierStyleItalic">recall</span>&#44; con cada uno de los 40 filtros&#44; en la primera columna est&#225;n las diversas orientaciones consideradas&#44; y por cada orientaci&#243;n se consideraron 5 escalas diferentes&#46; En la <a class="elsevierStyleCrossRef" href="#tbl0015">tabla 3</a> se puede observar que los filtros que obtuvieron mejores resultados son&#58; filtro con 157&#46;5 grados y escala de 5&#46;6&#59; filtro de 67&#46;5 grados y escala de 8&#44; filtro con 90 grados y escala de 11&#46;31 y filtro con 112&#46;5 grados y escala de 16&#46; El quinto mejor filtro tiene un rendimiento menor&#44; por eso solo se consideraron los primeros cuatro mejores filtros&#46; Sin embargo&#44; como un experimento adicional se probaron las combinaciones de los primeros seis mejores filtros&#44; en la <a class="elsevierStyleCrossRef" href="#tbl0010">tabla 2</a> se muestran los resultados de esta combinaci&#243;n&#44; aqu&#237; se puede ver que al combinar&#44; por ejemplo&#44; el mejor filtro con el segundo mejor el resultado disminuye&#59; sin embargo&#44; el resultado m&#225;s alto se alcanz&#243; con la combinaci&#243;n de los primeros 4 mejores filtros &#40;0&#46;749 de medida F&#41;&#46;</p><elsevierMultimedia ident="tbl0015"></elsevierMultimedia></span><span id="sec0045" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0065">Evaluaci&#243;n y comparativa con otros m&#233;todos</span><p id="par0170" class="elsevierStylePara elsevierViewall">En esta secci&#243;n se detallan los resultados obtenidos con el m&#233;todo propuesto&#44; es decir&#44; con los m&#233;todos alternativos descritos anteriormente&#46; En la <a class="elsevierStyleCrossRef" href="#tbl0020">tabla 4</a> se observan los resultados&#44; en valores de <span class="elsevierStyleItalic">Precision&#44; recall</span> y medida F&#44; por cada m&#233;todo comparado y con las cuatro bases de datos p&#250;blicas utilizadas para la evaluaci&#243;n&#46;</p><elsevierMultimedia ident="tbl0020"></elsevierMultimedia><p id="par0175" class="elsevierStylePara elsevierViewall">Como se observa en la <a class="elsevierStyleCrossRef" href="#tbl0020">tabla 4</a>&#44; los mejores resultados en medida F se obtuvieron por el m&#233;todo propuesto HoGG&#44; el segundo mejor m&#233;todo fue el m&#233;todo Laptev y los peores resultados se obtuvieron con el algoritmo V&#38;J-1 con una medida F promedio de 0&#46;27&#44; mientras que el mejor m&#233;todo obtuvo una medida F con valor de 0&#46;70&#46;</p><p id="par0180" class="elsevierStylePara elsevierViewall">Para ver un ejemplo de los resultados&#44; en la <a class="elsevierStyleCrossRef" href="#fig0020">figura 4</a> se muestran las diferentes im&#225;genes de resultado de cada uno de los m&#233;todos comparados&#44; as&#237; como del m&#233;todo propuesto HoGG&#46; Aqu&#237; se puede observar como el m&#233;todo propuesto es el que mayor n&#250;mero de detecciones correctas realiza&#44; por el contrario el m&#233;todo V&#38;J-1 es el que menor n&#250;mero de personas detecta en la imagen&#46;</p><elsevierMultimedia ident="fig0020"></elsevierMultimedia><p id="par0185" class="elsevierStylePara elsevierViewall">Para una mejor visualizaci&#243;n del desempe&#241;o&#44; en la <a class="elsevierStyleCrossRef" href="#fig0025">figura 5</a> se muestran las posiciones promedio de cada m&#233;todo en el ranking con su correspondiente 95&#37; de intervalo de confianza&#46; En esta gr&#225;fica se puede ver que el m&#233;todo HoGG logr&#243; la mejor posici&#243;n con valor de 1&#44; 12 &#177; 0&#44; 34&#46; De hecho&#44; el m&#233;todo HoGG fue el mejor &#40;posici&#243;n igual a 1&#41; en 14 de un total de 16 secuencias&#46; En las dos secuencias en las que no fue el mejor&#44; el m&#233;todo HoGG obtuvo la segunda mejor posici&#243;n en el ranking&#46; Por lo tanto&#44; se puede concluir que el buen funcionamiento del m&#233;todo HoGG es independiente de las situaciones del entorno&#44; por lo que es robusto y estable&#46;</p><elsevierMultimedia ident="fig0025"></elsevierMultimedia><p id="par0190" class="elsevierStylePara elsevierViewall">Adem&#225;s de evaluar los m&#233;todos comparados en t&#233;rminos de medida F y su posici&#243;n en un ranking&#44; se analiz&#243; el tiempo que cada uno de los m&#233;todos tardaba en procesar cada imagen&#44; es decir&#44; el n&#250;mero de im&#225;genes que cada m&#233;todo procesa por segundo&#46; Por medio de este an&#225;lisis se puede concluir que las diferencias en tiempo de procesamiento son m&#237;nimas&#44; pr&#225;cticamente todos los m&#233;todos procesan a la misma velocidad &#8776; 25 im&#225;genes por segundo&#46; A pesar de que el m&#233;todo propuesto HoGG utiliza un pre-procesamiento con los filtros de Gabor&#44; es igualmente capaz de procesar 25 im&#225;genes por segundo&#44; ya que la imagen de entrada solo se convoluciona con 4 filtros en vez de 40 como tradicionalmente se hace&#46;</p><p id="par0195" class="elsevierStylePara elsevierViewall">Como una comparaci&#243;n adicional a los resultados obtenidos con otros m&#233;todos de la literatura&#44; se buscaron trabajos m&#225;s recientes&#44; entre ellos se encuentra el trabajo presentado por Zweng &#40;2012&#41;&#44; donde se propone un m&#233;todo para la detecci&#243;n de personas utilizando un modelo con caracter&#237;sticas relacionales en combinaci&#243;n con funciones de similaridad de histogramas&#44; como la intersecci&#243;n de histogramas&#44; la correlaci&#243;n de histogramas&#44; etc&#233;tera&#46; Estas caracter&#237;sticas relacionales son combinadas con las caracter&#237;sticas extra&#237;das con el m&#233;todo HOG&#46; Para las pruebas se utiliz&#243; la base de datos PETS 2009 y los resultados no llegan ni a 70&#37; de reconocimiento&#44; a diferencia del m&#233;todo propuesto HoGG que con la misma base de datos logra 77&#37; de reconocimiento&#46;</p><p id="par0200" class="elsevierStylePara elsevierViewall">Otro m&#233;todo en la literatura es el propuesto por Garc&#237;a &#40;2015&#41;&#44; donde se presentan dos tareas de post-procesamiento con el objetivo de mejorar los resultados en la detecci&#243;n de personas&#46; Primero&#44; se propone el uso de un filtro de segmentaci&#243;n de personas respecto al fondo&#44; posteriormente se eval&#250;a la combinaci&#243;n de diferentes m&#233;todos de detecci&#243;n de personas con el objetivo de proporcionarles mayor robustez en la detecci&#243;n y as&#237; mejorar los resultados&#46; Para los experimentos se utilizaron dos bases de datos&#58; la PDds y PETS 2009&#46; Comparando los resultados obtenidos con la base de datos PETS 2009&#44; se puede observar que en el trabajo propuesto por Garc&#237;a &#40;2015&#41; se obtuvo un rendimiento de 85&#37; de tasa de reconocimiento y con el m&#233;todo propuesto HoGG&#44; se obtuvo un valor de medida-F de 77&#37;&#59; sin embargo&#44; en Garc&#237;a y Mart&#237;nez &#40;2015&#41; solo se utiliz&#243; una c&#225;mara de la secuencia de im&#225;genes de PETS 2009&#44; mientras que en el trabajo propuesto se utilizaron cuatro c&#225;maras diferentes de esa misma base de datos&#46;</p><p id="par0205" class="elsevierStylePara elsevierViewall">Otros trabajos como los propuestos en <a class="elsevierStyleCrossRef" href="#bib0070">Milani <span class="elsevierStyleItalic">et al</span>&#46; &#40;2013&#41;</a> y <a class="elsevierStyleCrossRef" href="#bib0085">Nghiem y Bremond &#40;2014&#41;</a> presentan resultados mayores en tasas de reconocimiento&#44; sin embargo&#44; esos resultados se obtuvieron por medio de bases de datos propias&#44; adquiridas bajo ciertas condiciones controladas en laboratorio&#44; lo cual no puede comparare contra los resultados obtenidos&#44; utilizando bases de datos p&#250;blicas y est&#225;ndares en la comunidad de video vigilancia inteligente&#46; Por ejemplo&#44; en Milani &#40;2013&#41; se alcanzan entre 50 y 100&#37; de tasa de reconocimiento&#44; dependiendo el escenario de prueba&#44; unos m&#225;s complejos que otros&#46; Sin embargo&#44; 100&#37; se logr&#243; con im&#225;genes adquiridas en condiciones controladas&#46; En Nghiem &#40;2014&#41; se obtuvo un resultado de 99&#37; de valor de Medida-F&#44; lo cual es un excelente resultado&#59; sin embargo&#44; como ya se coment&#243;&#44; las im&#225;genes utilizadas para probar los m&#233;todos son im&#225;genes adquiridas en entornos de laboratorio con condiciones controladas que favorecen&#44; en muchas ocasiones&#44; a los m&#233;todos que proponen los autores&#46;</p></span><span id="sec0050" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0070">Modelo de apariencia con soft-biom&#233;tricos</span><p id="par0210" class="elsevierStylePara elsevierViewall">Debido a que las im&#225;genes adquiridas en la mayor&#237;a de los sistemas de video vigilancia son de baja calidad y se adquieren a distancia&#44; es imposible obtener caracter&#237;sticas biom&#233;tricas&#44; como por ejemplo&#44; el rostro&#46; Por lo anterior y con el objetivo de identificar a una persona etiquetada como sospechosa para su posterior re-identificaci&#243;n de manera no intrusiva&#44; en este trabajo se propone la utilizaci&#243;n de un conjunto de caracter&#237;sticas soft-biom&#233;tricas relacionadas con la apariencia de las personas&#46; El proceso de re-identificaci&#243;n consiste en identificar a una persona a lo largo de diversas c&#225;maras localizadas en una zona de video vigilancia&#46; Las caracter&#237;sticas que se extraen se analizan y ponderan de acuerdo con diversas t&#233;cnicas propuestas&#46; En t&#233;rminos generales&#44; la soluci&#243;n propuesta consiste en&#44; primero&#44; extraer un conjunto de caracter&#237;sticas soft-biom&#233;tricas relacionadas con la apariencia de cada persona&#44; posteriormente estas caracter&#237;sticas se ordenan en un ranking de acuerdo a su importancia para la clasificaci&#243;n&#44; posteriormente cada caracter&#237;stica se pondera de acuerdo con su posici&#243;n en el ranking&#44; y finalmente el proceso de clasificaci&#243;n se lleva a cabo por medio de la distancia Eucl&#237;dea&#46; En la fase de entrenamiento&#44; se obtienen el mejor ranking y el mejor tipo de ponderaci&#243;n&#44; para posteriormente utilizarlas en la fase de prueba&#46;</p></span><span id="sec0055" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0075">Caracter&#237;sticas soft-biom&#233;tricas</span><p id="par0215" class="elsevierStylePara elsevierViewall">El conjunto de caracter&#237;sticas extra&#237;das se relacionan con la apariencia de las personas y constituyen lo que llamamos <span class="elsevierStyleItalic">bag-of-softbiometrics</span>&#46; Estas caracter&#237;sticas se seleccionaron tomando en cuenta las restricciones que imponen las malas condiciones de adquisici&#243;n&#44; como resoluci&#243;n baja&#44; cambios de iluminaci&#243;n&#44; localizaci&#243;n de las c&#225;maras&#44; cambios de perspectiva&#44; etc&#233;tera&#44; presentes en los entornos reales de video vigilancia&#46; En este trabajo se considera un conjunto de 23 caracter&#237;sticas teniendo en cuenta una amplia variedad de caracter&#237;sticas y as&#237; medir la relevancia de cada una de ellas para la descripci&#243;n de cada individuo&#46; Estas caracter&#237;sticas se relacionan con diferentes categor&#237;as como&#58; estad&#237;sticas de color en el modelo RGB &#40;<span class="elsevierStyleItalic">Red&#44; Green and Blue</span>&#41;&#44; estad&#237;sticas en escala de grises&#44; geometr&#237;a&#44; histograma en escala de grises&#44; estad&#237;sticas de color del modelo HSV &#40;<span class="elsevierStyleItalic">Hue&#44; Saturation and Value</span>&#41;&#44; estad&#237;sticos de texturas y LBP &#40;<span class="elsevierStyleItalic">Local Binary Pattern</span>&#41;&#46; Dado que la apariencia visual&#44; a distancia&#44; de una persona se representa b&#225;sicamente por su ropa&#44; se tomaron en cuenta un conjunto de caracter&#237;sticas relacionadas al color y textura para describir la apariencia de cada persona&#46; Para las caracter&#237;sticas de color se utilizaron dos modelos&#58; RGB &#40;<span class="elsevierStyleItalic">Red&#44; Green&#44; Blue</span>&#41; y HSV &#40;<span class="elsevierStyleItalic">Hue&#44; Saturation&#44; Value</span>&#41;&#46;</p><p id="par0220" class="elsevierStylePara elsevierViewall">La informaci&#243;n de las im&#225;genes se representa com&#250;nmente por un histograma&#44; por ello se ha considerado para el conjunto de caracter&#237;sticas algunos estad&#237;sticos que se obtienen a partir de este&#46; A simple vista&#44; un histograma puede dar una idea aproximada de la distribuci&#243;n del nivel de gris de una imagen&#46; La forma del histograma proporciona diferentes caracter&#237;sticas &#250;tiles como la media&#44; la dispersi&#243;n&#44; el contraste&#44; etc&#233;tera&#46; Por ello&#44; se calculan caracter&#237;sticas globales de la imagen a partir del histograma en escala de grises&#44; estas caracter&#237;sticas son&#58; media&#44; desviaci&#243;n est&#225;ndar&#44; entrop&#237;a&#44; dispersi&#243;n&#44; energ&#237;a y curtosis&#46;</p><p id="par0225" class="elsevierStylePara elsevierViewall">En la <a class="elsevierStyleCrossRef" href="#tbl0025">tabla 5</a> se pueden ver las ecuaciones para calcular cada una de las caracter&#237;sticas generadas a partir del histograma en escala de grises&#46;</p><elsevierMultimedia ident="tbl0025"></elsevierMultimedia><p id="par0230" class="elsevierStylePara elsevierViewall">Por otro lado&#44; uno de los principales inconvenientes de las caracter&#237;sticas basadas en histogramas es que no se considera la distribuci&#243;n espacial ni la variaci&#243;n local del color&#46; Con el objetivo de evitar esto&#44; se utiliza la matriz de co-ocurrencia para considerar la informaci&#243;n espacial&#46; La matriz de co-ocurrencia en escala de grises &#40;GCM por <span class="elsevierStyleItalic">Gray Co-ocurrence Matrix</span>&#41; es un m&#233;todo conocido para la extracci&#243;n de textura en el dominio espacial &#40;<a class="elsevierStyleCrossRef" href="#bib0030">Haralick <span class="elsevierStyleItalic">et al</span>&#46;&#44; 1973</a>&#41;&#46; La GCM incorpora informaci&#243;n espacial en forma de posici&#243;n relativa entre los niveles de intensidad dentro de la textura&#59; de hecho&#44; las GCM son histogramas bi-dimensionales&#46; La matriz de co-ocurrencia almacena el n&#250;mero de veces que un pixel en relaci&#243;n con otro&#44; dentro de su vecindad en la imagen&#44; tiene una combinaci&#243;n particular &#40;<a class="elsevierStyleCrossRef" href="#bib0100">Vadivel <span class="elsevierStyleItalic">et al</span>&#46;&#44; 2007</a>&#41;&#46; Las caracter&#237;sticas extra&#237;das de la GCM son&#58; energ&#237;a&#44; probabilidad m&#225;xima&#44; entrop&#237;a&#44; inercia y homogeneidad&#46; En la <a class="elsevierStyleCrossRef" href="#tbl0030">tabla 6</a> se muestran las ecuaciones para calcular cada una de estas caracter&#237;sticas de textura&#46;</p><elsevierMultimedia ident="tbl0030"></elsevierMultimedia><p id="par0235" class="elsevierStylePara elsevierViewall">Tambi&#233;n se consider&#243; otro enfoque local basado en <span class="elsevierStyleItalic">Local Binary Pattern</span> &#40;LBP&#41; &#40;<a class="elsevierStyleCrossRef" href="#bib0080">Moore y Bowden&#44; 2011</a>&#41;&#46; El LBP etiqueta los p&#237;xeles <span class="elsevierStyleItalic">fp &#40;p &#61; 0&#44; &#46;&#46;&#46;&#44; 7&#41;</span> de una imagen en una vecindad de <span class="elsevierStyleItalic">3 &#215; 3</span>&#46; Cada p&#237;xel se compara contra el p&#237;xel central <span class="elsevierStyleItalic">fc</span> y el resultado es un n&#250;mero binario de cada una de las 8 comparaciones &#40;8 vecinos&#41;&#44; el valor LBP se calcula como indica la ecuaci&#243;n 7<elsevierMultimedia ident="eq0035"></elsevierMultimedia></p><p id="par1335" class="elsevierStylePara elsevierViewall">La &#250;ltima caracter&#237;stica extra&#237;da es la excentricidad&#44; que representa la relaci&#243;n entre el alto y ancho de la persona&#46; La excentricidad se obtiene por medio de los momentos de segundo orden &#40;<span class="elsevierStyleItalic">m</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">20</span></span>&#44; <span class="elsevierStyleItalic">m</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">02</span></span> y <span class="elsevierStyleItalic">m</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">11</span></span>&#41;&#44; una vez que tenemos los momentos&#44; la excentricidad se calcula por medio de las ecuaciones 8&#44; 9 y 10&#46; La ecuaci&#243;n 8 calcula el R<span class="elsevierStyleInf"><span class="elsevierStyleItalic">min</span></span> que es la distancia m&#237;nima y la ecuaci&#243;n 9 calcula el R<span class="elsevierStyleInf"><span class="elsevierStyleItalic">max</span></span> que es la distancia m&#225;xima&#44; a partir de estas dos se calcula el valor de excentricidad&#46;<elsevierMultimedia ident="eq0045"></elsevierMultimedia><elsevierMultimedia ident="eq0050"></elsevierMultimedia><elsevierMultimedia ident="eq0055"></elsevierMultimedia></p><p id="par0240" class="elsevierStylePara elsevierViewall">En resumen&#44; se consider&#243; un conjunto de 23 caracter&#237;sticas relacionadas al color&#44; textura&#44; geometr&#237;a y rasgos locales&#44; principalmente&#46; Finalmente estas caracter&#237;sticas se normalizan entre 0 y 1 con fines comparativos&#46;</p></span><span id="sec0060" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0080">M&#233;todos para medir la relevancia de las caracter&#237;sticas extra&#237;das&#58; posici&#243;n y ponderaci&#243;n</span><p id="par0245" class="elsevierStylePara elsevierViewall">En esta secci&#243;n se describen los cuatro m&#233;todos propuestos para medir la relevancia de cada una de las caracter&#237;sticas extra&#237;das&#46; Estas t&#233;cnicas se proponen teniendo en cuenta el hecho de que la relevancia de cada una de las 23 caracter&#237;sticas soft-biom&#233;tricas extra&#237;das es diferente&#46; Estos m&#233;todos se basan en los enfoques de PCA &#40;<span class="elsevierStyleItalic">Principal Component Analysis</span>&#41; &#40;<a class="elsevierStyleCrossRef" href="#bib0045">Jolliffe&#44; 1973</a>&#41;&#44; medidas de disimilaridad y alineaci&#243;n del kernel &#40;<span class="elsevierStyleItalic">kernel alignment</span>&#41; &#40;Cristianini <span class="elsevierStyleItalic">et al</span>&#46;&#44; 2010&#41;&#46; Cada uno de estos enfoques se seleccion&#243; por los buenos resultados que han obtenido en el &#225;rea de reconocimiento de patrones&#46; A partir de estos m&#233;todos se gener&#243; otro mediante la combinaci&#243;n de los mismos&#46; Los dos primeros m&#233;todos propuestos se basan en el PCA&#46; La idea principal detr&#225;s del PCA es reducir la dimensionalidad de los datos que contengan un gran n&#250;mero de variables interrelacionadas &#40;<a class="elsevierStyleCrossRef" href="#bib0045">Jolliffe&#44; 1973</a>&#41;&#46; Primero&#44; se propone un enfoque que considera la importancia de la presencia de cada caracter&#237;stica en cada uno de los 23 componentes principales&#46; A este m&#233;todo se le llamar&#225; <span class="elsevierStyleItalic">PCA-feature-presence</span> &#40;PCA-FP&#41;&#46; En segundo lugar se propone un m&#233;todo con el que se pueda obtener un valor cuantitativo a partir de la salida generada por el PCA&#46; Este segundo m&#233;todo considera el valor del <span class="elsevierStyleItalic">score</span> de cada caracter&#237;stica en cada autovector multiplicado por la correspondiente proporci&#243;n de varianza del componente&#46; A este m&#233;todo se le llamar&#225; <span class="elsevierStyleItalic">PCA-feature-value</span> &#40;PCA-FV&#41;&#46; En el caso del m&#233;todo PCA-FP&#44; se tiene en cuenta el hecho de que la varianza de cada componente decrece progresivamente&#46; El m&#233;todo PCA-FP es un m&#233;todo secuencial que ordena a cada caracter&#237;stica de acuerdo con la importancia de cada componente&#46; Como la primera componente tiene mayor varianza se le considera de mayor importancia&#44; y as&#237; con la segunda componente que es la segunda m&#225;s importante hasta la componente 23 que es la que menos importancia se le asigna&#46; Con el m&#233;todo PCA-FP se obtendr&#225; un ranking desde 1 hasta 23 posiciones&#44; donde la primera es la m&#225;s importante y la &#250;ltima la menos importante&#46; Con este m&#233;todo s&#243;lo se obtiene una posici&#243;n y no un valor num&#233;rico como salida&#46; Buscando un valor num&#233;rico para la salida del m&#233;todo&#44; el m&#233;todo PCA-FV considera el valor absoluto del <span class="elsevierStyleItalic">score</span> en cada autovector para cada caracter&#237;stica y el valor de la proporci&#243;n de varianza de cada componente&#46; El <span class="elsevierStyleItalic">score</span> de cada caracter&#237;stica se multiplica por el valor de la proporci&#243;n de varianza de cada componente&#46; Como tercer m&#233;todo&#44; se consider&#243; un enfoque diferente basado en una medida de disimilaridad &#40;DM para futuras referencias&#41;&#46; Aqu&#237;&#44; cada caracter&#237;stica se ordena mediante la comparaci&#243;n de sus medias y desviaciones en cada clase &#40;cada persona&#41;&#46; Este ranking se calcula como indica la ecuaci&#243;n 11&#46;</p><p id="par0250" class="elsevierStylePara elsevierViewall">Donde</p><p id="par0255" class="elsevierStylePara elsevierViewall"><span class="elsevierStyleItalic">X</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">ni</span></span> &#61; valor de la media de cada caracter&#237;stica <span class="elsevierStyleItalic">i</span> en cada clase <span class="elsevierStyleItalic">n</span></p><p id="par0260" class="elsevierStylePara elsevierViewall"><span class="elsevierStyleItalic">S&#40;ni&#41;</span> &#61; desviaci&#243;n est&#225;ndar de cada caracter&#237;stica <span class="elsevierStyleItalic">i</span> para la misma clase <span class="elsevierStyleItalic">n</span></p><p id="par0265" class="elsevierStylePara elsevierViewall"><span class="elsevierStyleItalic">X</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">mi</span></span> &#61; valor de la media de la caracter&#237;stica <span class="elsevierStyleItalic">i</span> para todas las dem&#225;s clases <span class="elsevierStyleItalic">m</span></p><p id="par0270" class="elsevierStylePara elsevierViewall"><span class="elsevierStyleItalic">S&#40;mi&#41;</span> &#61; desviaci&#243;n est&#225;ndar de todas las clases restantes <span class="elsevierStyleItalic">m</span><elsevierMultimedia ident="eq0060"></elsevierMultimedia></p><p id="par0275" class="elsevierStylePara elsevierViewall">El cuarto m&#233;todo se basa en un enfoque de <span class="elsevierStyleItalic">kernel</span>&#44; este se usa cada vez m&#225;s para modelado de datos debido a su simplicidad conceptual y su rendimiento en muchas tareas de reconocimiento de patrones &#40;Cristianini&#44; 2010&#41;&#46; Es por esta raz&#243;n que se considera el m&#233;todo de <span class="elsevierStyleItalic">kernel alignment</span> &#40;KA para futuras referencias&#41; en este trabajo como el cuarto m&#233;todo para medir la relevancia de cada una de las caracter&#237;sticas extra&#237;das&#46; Con el m&#233;todo del <span class="elsevierStyleItalic">kernel alignment</span> se calcul&#243; el alineamiento entre cada caracter&#237;stica y el <span class="elsevierStyleItalic">kernel</span> ideal &#40;<a class="elsevierStyleCrossRef" href="#bib0025">Gosselin <span class="elsevierStyleItalic">et al</span>&#46;&#44; 2011&#41;</a>&#46; Cuanto mayor es este alineamiento&#44; mayor se ajustar&#225; el <span class="elsevierStyleItalic">kernel</span> a la clase representada por los datos&#46; El alineamiento se calcula como indica la ecuaci&#243;n 12&#46;<elsevierMultimedia ident="eq0065"></elsevierMultimedia></p><p id="par0280" class="elsevierStylePara elsevierViewall">Donde <span class="elsevierStyleItalic">k</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">v</span></span> es una matriz que en su diagonal por bloques contiene los valores de todas las muestras de todas las personas &#40;clases&#41; en cada variable <span class="elsevierStyleItalic">v</span>&#46; Es decir&#44; la matriz <span class="elsevierStyleItalic">k</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">v</span></span> se construye mediante la concatenaci&#243;n de cada uno de los valores de cada caracter&#237;stica de todas las im&#225;genes de cada una de las personas&#46; Por lo tanto&#44; la matriz <span class="elsevierStyleItalic">k</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">v</span></span> es una matriz cuadrada con dimensi&#243;n igual a <span class="elsevierStyleItalic">n</span> muestras &#40;para todas las clases&#41;&#44; donde <span class="elsevierStyleItalic">&#40;i&#44; j&#41;</span> representa las posiciones de rengl&#243;n y columna&#46; El proceso de construcci&#243;n de esta matriz se lleva a cabo mediante la concatenaci&#243;n de bloques&#44; donde cada bloque representa a todas las muestras de la caracter&#237;stica <span class="elsevierStyleItalic">v</span> de cada persona o clase&#46; El <span class="elsevierStyleItalic">kernel</span> ideal se representa por <span class="elsevierStyleItalic">yy</span><span class="elsevierStyleSup"><span class="elsevierStyleItalic">t</span></span>&#44; que es una matriz cuadrada que contiene 1&#39;s en su diagonal por bloques y 0&#39;s en el resto de los casos&#46; Esto es&#44; <span class="elsevierStyleItalic">&#8721; k</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">v</span></span><span class="elsevierStyleItalic">&#40;i&#44; j&#41; &#183; yy</span><span class="elsevierStyleSup"><span class="elsevierStyleItalic">t</span></span><span class="elsevierStyleItalic">&#40;i&#44; j&#41;</span> es la sumatoria de la diagonal de la matriz <span class="elsevierStyleItalic">k</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">v</span></span> y <span class="elsevierStyleItalic">ns</span> es el n&#250;mero total de los ejemplos de cada una de las clases&#44; se debe tener en cuenta que el n&#250;mero de ejemplos de cada clase puede ser diferente&#46;</p><p id="par0285" class="elsevierStylePara elsevierViewall">Finalmente&#44; el &#250;ltimo m&#233;todo se calcula mediante la suma de los resultados de los cuatro m&#233;todos previamente analizados&#44; es decir&#44; este m&#233;todo suma las diferentes posiciones obtenidas en cada m&#233;todo para cada caracter&#237;stica&#44; por lo que cuanto m&#225;s peque&#241;o sea el valor de esta suma&#44; mejor ser&#225; la posici&#243;n en el ranking con este m&#233;todo de combinaci&#243;n &#40;CM para futuras referencias&#41;&#46; Cuando las caracter&#237;sticas ya est&#225;n ordenadas de acuerdo con su relevancia&#44; estas se ponderan en relaci&#243;n con su posici&#243;n en el ranking&#44; para esto se proponen dos maneras&#46; En la primera&#44; se le asigna una puntuaci&#243;n a cada una de las posiciones del ranking&#44; a la primera posici&#243;n se le asigna un valor de 23&#47;276 y a la &#250;ltima posici&#243;n un valor de 1&#47;276&#46; El 276 es el total de la sumatoria de 23 hasta 1&#44; es decir&#44; el total de puntos que se repartieron en las 23 caracter&#237;sticas&#46; Esta t&#233;cnica de ponderaci&#243;n se llama no-param&#233;trica&#46; La segunda t&#233;cnica de ponderaci&#243;n utiliza la salida num&#233;rica generada por cada m&#233;todo y se le llama ponderaci&#243;n param&#233;trica&#46; En resumen&#44; se proponen cinco m&#233;todos para medir la relevancia de cada caracter&#237;stica y dos t&#233;cnicas de ponderaci&#243;n para los rankings obtenidos&#46; Por lo que&#44; en combinaci&#243;n se obtendr&#225;n ocho diferentes resultados&#58; PCA-FP con ponderaci&#243;n no param&#233;trica&#44; PCA-FV con ambas ponderaciones&#44; DM con ambas ponderaciones&#44; KA con ambas ponderaciones y CM con la ponderaci&#243;n no param&#233;trica&#46; Adem&#225;s&#44; con prop&#243;sitos comparativos&#44; tambi&#233;n se probar&#225;n las caracter&#237;sticas sin ning&#250;n tipo de ordenamiento ni ponderaci&#243;n &#40;SP&#41;&#46;</p></span><span id="sec0065" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0085">Experimentos y an&#225;lisis de los resultados</span><p id="par0290" class="elsevierStylePara elsevierViewall">Los experimentos se dise&#241;aron con el prop&#243;sito de comparar a cada sospechoso con una lista de sospechosos&#44; sin importar el tiempo u orden de aparici&#243;n&#46; Esto es equivalente a buscar a los sospechosos en una base de datos de video vigilancia completa&#44; tanto en las im&#225;genes pasadas como en las im&#225;genes actuales&#46; Para estos experimentos se utilizaron dos enfoques de evaluaci&#243;n&#58; el enfoque <span class="elsevierStyleItalic">watch-list</span> y la curva CMC &#40;<span class="elsevierStyleItalic">Cumulative Match Curve</span>&#41;<span class="elsevierStyleItalic">&#46;</span> En la evaluaci&#243;n <span class="elsevierStyleItalic">watch-list</span>&#44; el prop&#243;sito es identificar a un limitado y pre-establecido n&#250;mero de personas &#40;los sospechosos&#41; quienes est&#225;n en una lista de b&#250;squeda &#40;<span class="elsevierStyleItalic">watch-list</span>&#41; &#40;<a class="elsevierStyleCrossRef" href="#bib0050">Kamgar y Lawson&#44; 2011&#41;</a>&#46; Por otro lado&#44; el enfoque CMC se seleccion&#243; como otra forma de evaluar a los m&#233;todos &#40;<a class="elsevierStyleCrossRef" href="#bib0010">Bolle <span class="elsevierStyleItalic">et al</span>&#46;&#44; 2005</a>&#41;&#46; El enfoque CMC se utiliza como medida de comparaci&#243;n <span class="elsevierStyleItalic">1&#58;k</span> &#40;en este trabajo k es igual a 3&#41; del rendimiento del sistema&#44; donde <span class="elsevierStyleItalic">k</span> representa el rango de los mejores resultados considerados para la evaluaci&#243;n del sistema&#44; es decir&#44; CMC juzga la capacidad de margen de aceptaci&#243;n o &#233;xito de un sistema de identificaci&#243;n&#46;</p><p id="par0295" class="elsevierStylePara elsevierViewall">Para los experimentos se utilizaron tres bases de datos multi-c&#225;mara&#58; PETS 2006&#44; PETS 2009 y MUBA&#46; Se utilizaron un total de 10&#44;978 im&#225;genes multi-c&#225;mara&#44; de esas im&#225;genes&#44; 30&#37; se utiliz&#243; para la etapa de entrenamiento para la generaci&#243;n de los rankings y el restante 70&#37; se utiliz&#243; para la etapa de prueba&#46;</p><p id="par0300" class="elsevierStylePara elsevierViewall">En la <a class="elsevierStyleCrossRef" href="#tbl0035">tabla 7</a> se muestran los resultados obtenidos con cada m&#233;todo en cada una de las bases de datos multi-c&#225;mara utilizadas &#40;PETS 2006&#44; PETS 2009 y MUBA&#41;&#46; En esta tabla&#44; NP significa No Param&#233;trico y P es param&#233;trico &#40;ambos m&#233;todos de ponderaci&#243;n&#41;&#46; En estos resultados&#44; expresados en porcentaje de TPR &#40;<span class="elsevierStyleItalic">true positive rate</span> o tasa de verdaderos positivos&#41; y FAR &#40;<span class="elsevierStyleItalic">falce acceptance rate</span> o tasa de falsos positivos&#41;&#44; se puede apreciar que el mejor m&#233;todo en la base de datos PETS 2006 es el DM&#44; y algunos de los m&#233;todos basados en PCA tambi&#233;n obtienen buenos resultados&#46; El mejor resultado en la base de datos PETS 2009 se obtuvo con el m&#233;todo PCA-FP&#44; alcanzando 94&#46;24&#37; de tasa de identificaci&#243;n y 5&#46;44&#37; de tasa de falsos positivos&#46; En la base de datos MUBA&#44; el m&#233;todo PCA-FV logr&#243; el mejor resultado con 93&#46;10&#37; de tasa de identificaci&#243;n y 6&#46;90&#37; de tasa de falsos positivos&#46; En general&#44; todos los resultados obtenidos son muy prometedores&#44; ya que todos son superiores a 90&#37; de acierto&#44; que es muy relevante por las dif&#237;ciles condiciones no controladas que se encuentran en las im&#225;genes multi-c&#225;mara de las bases de datos utilizadas&#46; Tambi&#233;n se puede observar que la ponderaci&#243;n param&#233;trica tiene mayor relevancia&#46;</p><elsevierMultimedia ident="tbl0035"></elsevierMultimedia><p id="par0305" class="elsevierStylePara elsevierViewall">En cuanto a la evaluaci&#243;n CMC&#44; en la <a class="elsevierStyleCrossRef" href="#fig0030">figura 6</a> se muestra la curva CMC para el mejor m&#233;todo en cada base de datos utilizada&#46; En esta curva se puede observar&#44; que los resultados m&#225;s altos se obtienen con la base de datos PETS 2006 y&#44; por el contrario&#44; los resultados m&#225;s bajos se lograron con la base de datos MUBA debido a la complejidad de sus im&#225;genes&#46; A pesar de que con <span class="elsevierStyleItalic">k &#61; 1</span> los resultados son mejores en PETS 2009 que en MUBA&#44; con <span class="elsevierStyleItalic">k &#61; 3</span> la mejora lograda en MUBA es ampliamente superior que la lograda en PETS 2009 bajo esa condici&#243;n&#46; Adem&#225;s&#44; se puede observar que casi en todos los casos el incremento en el porcentaje de acierto es superior cuando <span class="elsevierStyleItalic">k</span> &#61; 2 que el incremento logrado con <span class="elsevierStyleItalic">k &#61; 3</span>&#46;</p><elsevierMultimedia ident="fig0030"></elsevierMultimedia><p id="par0310" class="elsevierStylePara elsevierViewall">Se puede concluir que la tasa de identificaci&#243;n del mejor m&#233;todo en cada base de datos fue superior a 93&#37; con una tasa de falsos positivos menor a 6&#46;90&#37;&#46; La ponderaci&#243;n param&#233;trica&#44; es decir&#44; la ponderaci&#243;n que utiliza la salida del m&#233;todo&#44; fue m&#225;s relevante que la ponderaci&#243;n no param&#233;trica&#46; En la prueba CMC el mejor resultado fue 98&#46;34&#37; de identificaci&#243;n y 1&#46;6&#37; de falsos positivos&#44; considerando los tres mejores candidatos&#46; Analizando las caracter&#237;sticas se puede concluir que la apariencia relacionada con los estad&#237;sticos de textura y con el histograma en escala de grises es m&#225;s relevante en un entorno de m&#250;ltiples c&#225;maras&#46;</p><p id="par0315" class="elsevierStylePara elsevierViewall">En la <a class="elsevierStyleCrossRef" href="#fig0035">figura 7</a> se puede apreciar un ejemplo del funcionamiento del sistema final&#44; donde se identifica a una misma persona en cuatro c&#225;maras diferentes&#46; Aqu&#237;&#44; se puede ver c&#243;mo las cuatro c&#225;maras tienen diferentes entornos y niveles de complejidad&#44; pero aun as&#237; el sistema es capaz de realizar la re-identificaci&#243;n de la misma persona con un buen grado de certeza&#46;</p><elsevierMultimedia ident="fig0035"></elsevierMultimedia><p id="par0320" class="elsevierStylePara elsevierViewall">Finalmente&#44; en relaci&#243;n con el tiempo de procesamiento&#44; a pesar de que se calculan 23 caracter&#237;sticas para cada persona detectada&#44; el procesamiento se realiza a la velocidad requerida por la mayor&#237;a de los sistemas de c&#225;maras para funcionar en tiempo real&#44; es decir&#44; entre 5 y 20 im&#225;genes por segundo&#46; Muchos de los sistemas de c&#225;maras existentes manejan una frecuencia de 5 im&#225;genes por segundo debido principalmente a factores de almacenamiento&#59; sin embargo&#44; con las mejoras de la tecnolog&#237;a muchos sistemas nuevos pueden trabajar a m&#225;s de 20 im&#225;genes por segundo&#46; El modelo propuesto para la re-identificaci&#243;n de personas por medio de caracter&#237;sticas soft-biom&#233;tricas&#44; es capaz de procesar a esta velocidad para proporcionar un funcionamiento en tiempo real&#46;</p></span><span id="sec0070" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0090">Conclusiones</span><p id="par0325" class="elsevierStylePara elsevierViewall">En este trabajo se present&#243; un sistema completo para la re-identificaci&#243;n de personas en espacios con m&#250;ltiples c&#225;maras&#46; Se abordaron todas las tareas que el sistema debe realizar para lograr una correcta identificaci&#243;n de las personas&#46; En primer lugar&#44; se present&#243; un m&#233;todo para la detecci&#243;n de personas&#44; HoGG&#44; as&#237; como su comparaci&#243;n con otros m&#233;todos alternativos en la literatura&#46; El m&#233;todo HoGG logr&#243; los mejores resultados en todas las bases de datos utilizadas para los experimentos&#46; Analizando los resultados de la detecci&#243;n de personas&#44; se puede concluir que los m&#233;todos del estado del arte&#44; han logrado resultados muy importantes y las posibles mejoras relacionadas a esta tarea cada vez se vuelven m&#225;s dif&#237;ciles de lograr&#46; Sin embargo&#44; cuando se eval&#250;a un algoritmo de detecci&#243;n de personas en entornos reales&#44; el rendimiento se ve afectado&#44; lo que indica que el dise&#241;o experimental y la aplicaci&#243;n de los m&#233;todos debe ser cada vez m&#225;s realista&#46;</p><p id="par0330" class="elsevierStylePara elsevierViewall">En segundo lugar&#44; se propone un modelo de apariencia basado en caracter&#237;sticas soft-biom&#233;tricas&#46; Las caracter&#237;sticas soft-biom&#233;tricas han demostrado su capacidad en el &#225;rea de reconocimiento de personas&#44; adem&#225;s&#44; dichas caracter&#237;sticas se pueden usar como rasgos adicionales a los biom&#233;tricos cl&#225;sicos&#46; El inter&#233;s en la aplicaci&#243;n de las caracter&#237;sticas soft-biom&#233;tricas no tiene el auge de las caracter&#237;sticas biom&#233;tricas cl&#225;sicas&#44; sin embargo&#44; el inter&#233;s sobre ellas se mantiene en constante crecimiento&#46; Por ello&#44; se propuso un conjunto de 23 caracter&#237;sticas relacionadas al color&#44; textura&#44; histogramas&#44; caracter&#237;sticas locales y geom&#233;tricas&#46; Tambi&#233;n&#44; se propusieron diversos m&#233;todos para medir la relevancia de cada una de estas caracter&#237;sticas para poder ponderarlas de acuerdo con su nivel en un ranking&#46; Con los modelos de apariencia propuestos se lograron tasas de reconocimiento superiores a 93&#37;&#44; con esto&#44; el uso de las caracter&#237;sticas soft-biom&#233;tricas han demostrado su gran potencial&#46;</p></span></span>"
    "textoCompletoSecciones" => array:1 [
      "secciones" => array:16 [
        0 => array:3 [
          "identificador" => "xres682385"
          "titulo" => "Resumen"
          "secciones" => array:1 [
            0 => array:1 [
              "identificador" => "abst0005"
            ]
          ]
        ]
        1 => array:2 [
          "identificador" => "xpalclavsec687971"
          "titulo" => "Descriptores"
        ]
        2 => array:3 [
          "identificador" => "xres682386"
          "titulo" => "Abstract"
          "secciones" => array:1 [
            0 => array:1 [
              "identificador" => "abst0010"
            ]
          ]
        ]
        3 => array:2 [
          "identificador" => "xpalclavsec687972"
          "titulo" => "Keywords"
        ]
        4 => array:2 [
          "identificador" => "sec0005"
          "titulo" => "Introducci&#243;n"
        ]
        5 => array:2 [
          "identificador" => "sec0010"
          "titulo" => "Sistema propuesto"
        ]
        6 => array:3 [
          "identificador" => "sec0015"
          "titulo" => "Detecci&#243;n de personas"
          "secciones" => array:3 [
            0 => array:2 [
              "identificador" => "sec0020"
              "titulo" => "M&#233;todo HoGG"
            ]
            1 => array:2 [
              "identificador" => "sec0025"
              "titulo" => "Filtros de Gabor"
            ]
            2 => array:2 [
              "identificador" => "sec0030"
              "titulo" => "Histograma de las orientaciones del gradiente&#58; HOG"
            ]
          ]
        ]
        7 => array:2 [
          "identificador" => "sec0035"
          "titulo" => "Experimentos y an&#225;lisis de los resultados"
        ]
        8 => array:2 [
          "identificador" => "sec0040"
          "titulo" => "Selecci&#243;n de los mejores filtros de Gabor"
        ]
        9 => array:2 [
          "identificador" => "sec0045"
          "titulo" => "Evaluaci&#243;n y comparativa con otros m&#233;todos"
        ]
        10 => array:2 [
          "identificador" => "sec0050"
          "titulo" => "Modelo de apariencia con soft-biom&#233;tricos"
        ]
        11 => array:2 [
          "identificador" => "sec0055"
          "titulo" => "Caracter&#237;sticas soft-biom&#233;tricas"
        ]
        12 => array:2 [
          "identificador" => "sec0060"
          "titulo" => "M&#233;todos para medir la relevancia de las caracter&#237;sticas extra&#237;das&#58; posici&#243;n y ponderaci&#243;n"
        ]
        13 => array:2 [
          "identificador" => "sec0065"
          "titulo" => "Experimentos y an&#225;lisis de los resultados"
        ]
        14 => array:2 [
          "identificador" => "sec0070"
          "titulo" => "Conclusiones"
        ]
        15 => array:1 [
          "titulo" => "Referencias"
        ]
      ]
    ]
    "pdfFichero" => "main.pdf"
    "tienePdf" => true
    "fechaRecibido" => "2015-04-30"
    "fechaAceptado" => "2015-08-31"
    "PalabrasClave" => array:2 [
      "es" => array:1 [
        0 => array:4 [
          "clase" => "keyword"
          "titulo" => "Descriptores"
          "identificador" => "xpalclavsec687971"
          "palabras" => array:5 [
            0 => "video vigilancia inteligente"
            1 => "re-identificaci&#243;n de personas"
            2 => "caracter&#237;sticas soft-biom&#233;tricas"
            3 => "detecci&#243;n de personas"
            4 => "aprendizaje incremental"
          ]
        ]
      ]
      "en" => array:1 [
        0 => array:4 [
          "clase" => "keyword"
          "titulo" => "Keywords"
          "identificador" => "xpalclavsec687972"
          "palabras" => array:5 [
            0 => "intelligent video surveillance systems"
            1 => "people re-identification"
            2 => "soft-biometrics features"
            3 => "people detection"
            4 => "incremental learning"
          ]
        ]
      ]
    ]
    "Biografia" => array:1 [
      0 => array:2 [
        "identificador" => "vt0005"
        "biografia" => "<p id="spar0015" class="elsevierStyleSimplePara elsevierViewall"><span class="elsevierStyleItalic">Daniela A&#46; Moctezuma-Ochoa&#46;</span> Investigador c&#225;tedra CONACYT adscrita al CentroGEO&#46; Obtuvo el doctorado en tecnolog&#237;as de la informaci&#243;n y sistemas inform&#225;ticos en la Universidad Rey Juan Carlos de Espa&#241;a con una tesis de video vigilancia inteligente&#44; donde obtuvo menci&#243;n&#160;honor&#237;fica&#46; Tiene m&#225;s de seis a&#241;os de&#160;experiencia en visi&#243;n artificial y reconocimiento de patrones&#46; Sus principales l&#237;neas de investigaci&#243;n son&#58; visi&#243;n artificial&#44; aprendizaje incremental&#44; video vigilancia inteligente y reconocimiento de patrones&#46;</p>"
      ]
    ]
    "tieneResumen" => true
    "resumen" => array:2 [
      "es" => array:2 [
        "titulo" => "Resumen"
        "resumen" => "<span id="abst0005" class="elsevierStyleSection elsevierViewall"><p id="spar0005" class="elsevierStyleSimplePara elsevierViewall">Los sistemas de video vigilancia inteligente se convirtieron en un importante tema de investigaci&#243;n en los &#250;ltimos a&#241;os debido a su importancia para el sector de la seguridad&#46; En este art&#237;culo se presenta un sistema completo de video vigilancia inteligente&#46; Este sistema comprende dos importantes m&#243;dulos&#58; detecci&#243;n de personas y re-identificaci&#243;n de personas mediante caracter&#237;sticas soft-biom&#233;tricas&#46; Estas dos fases en conjunto proporcionan un sistema completo para la re-identificaci&#243;n de personas en escenarios de video vigilancia&#44; espec&#237;ficamente en entornos multi-c&#225;mara&#46; Los resultados de cada etapa del sistema&#44; as&#237; como los resultados finales&#44; muestran la importancia de las caracter&#237;sticas soft-biom&#233;tricas&#44; as&#237; como un gran resultado en tasa de reconocimiento en diversas bases de datos p&#250;blicas y est&#225;ndares en la comunidad cient&#237;fica de video vigilancia inteligente&#46; Adem&#225;s se presenta una base de datos propia adquirida en el aeropuerto de Madrid&#44; Barajas&#46;</p></span>"
      ]
      "en" => array:2 [
        "titulo" => "Abstract"
        "resumen" => "<span id="abst0010" class="elsevierStyleSection elsevierViewall"><p id="spar0010" class="elsevierStyleSimplePara elsevierViewall">In last years&#44; the intelligent video surveillance systems have become an important research topic due to relevance for security sector&#46; In this paper&#44; a full intelligent video surveillance system is presented&#46; This system is conforming by two important modules&#58; people detection and people re-identification based on soft-biometrics features&#46; These two modules provide a whole system for people re-identification in multi-camera surveillance environment&#46; The results show the relevance and potential of soft-biometrics features as well as a promising identification rate result in several standard and public databases and moreover with an own database acquired at International Barajas airport in Madrid&#46;</p></span>"
      ]
    ]
    "multimedia" => array:36 [
      0 => array:7 [
        "identificador" => "fig0005"
        "etiqueta" => "Figura 1"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "gr1.jpeg"
            "Alto" => 1079
            "Ancho" => 1401
            "Tamanyo" => 400587
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0020" class="elsevierStyleSimplePara elsevierViewall">Im&#225;genes de ejemplo donde se puede observar la baja calidad&#44; mala iluminaci&#243;n&#44; zoom&#44; etc&#233;tera</p>"
        ]
      ]
      1 => array:7 [
        "identificador" => "fig0010"
        "etiqueta" => "Figura 2"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "gr2.jpeg"
            "Alto" => 1240
            "Ancho" => 2194
            "Tamanyo" => 223575
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0025" class="elsevierStyleSimplePara elsevierViewall">Esquema general del m&#233;todo de detecci&#243;n de personas&#58; HoGG</p>"
        ]
      ]
      2 => array:7 [
        "identificador" => "fig0015"
        "etiqueta" => "Figura 3"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "gr3.jpeg"
            "Alto" => 981
            "Ancho" => 2116
            "Tamanyo" => 188036
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0030" class="elsevierStyleSimplePara elsevierViewall">Establecimiento de ventanas de extracci&#243;n sobre la imagen con el m&#233;todo HOG</p>"
        ]
      ]
      3 => array:7 [
        "identificador" => "fig0020"
        "etiqueta" => "Figura 4"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "gr4.jpeg"
            "Alto" => 1297
            "Ancho" => 2205
            "Tamanyo" => 355462
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0035" class="elsevierStyleSimplePara elsevierViewall">Im&#225;genes de resultado de todos los m&#233;todos</p>"
        ]
      ]
      4 => array:7 [
        "identificador" => "fig0025"
        "etiqueta" => "Figura 5"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "gr5.jpeg"
            "Alto" => 954
            "Ancho" => 1589
            "Tamanyo" => 135411
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0040" class="elsevierStyleSimplePara elsevierViewall">Posici&#243;n media &#40;cuadrado verde&#41; e intervalo de confianza de cada uno de los m&#233;todos</p>"
        ]
      ]
      5 => array:7 [
        "identificador" => "fig0030"
        "etiqueta" => "Figura 6"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "gr6.jpeg"
            "Alto" => 1105
            "Ancho" => 2194
            "Tamanyo" => 120570
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0045" class="elsevierStyleSimplePara elsevierViewall">Curva CMC del mejor m&#233;todo por base de datos en el entorno multi-c&#225;mara&#46; El valor de <span class="elsevierStyleItalic">k</span> es 1&#58;3</p>"
        ]
      ]
      6 => array:7 [
        "identificador" => "fig0035"
        "etiqueta" => "Figura 7"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "gr7.jpeg"
            "Alto" => 957
            "Ancho" => 2204
            "Tamanyo" => 331128
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0050" class="elsevierStyleSimplePara elsevierViewall">Ejemplo de reconocimiento de un sospechoso en 4 diferentes c&#225;maras</p>"
        ]
      ]
      7 => array:8 [
        "identificador" => "tbl0005"
        "etiqueta" => "Tabla 1"
        "tipo" => "MULTIMEDIATABLA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "detalles" => array:1 [
          0 => array:3 [
            "identificador" => "at1"
            "detalle" => "Tabla "
            "rol" => "short"
          ]
        ]
        "tabla" => array:1 [
          "tablatextoimagen" => array:1 [
            0 => array:2 [
              "tabla" => array:1 [
                0 => """
                  <table border="0" frame="\n
                  \t\t\t\t\tvoid\n
                  \t\t\t\t" class=""><thead title="thead"><tr title="table-row"><th class="td-with-role" title="table-head ; entry_with_role_rowhead " align="left" valign="top" scope="col">Base de datos&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col">Resoluci&#243;n&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col">Escenario&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " colspan="2" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">N&#250;m&#46; de im&#225;genes utilizadas</th></tr><tr title="table-row"><th class="td" title="table-head  " align="" valign="top" scope="col" style="border-bottom: 2px solid black">&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="" valign="top" scope="col" style="border-bottom: 2px solid black">&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="" valign="top" scope="col" style="border-bottom: 2px solid black">&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Mono-c&#225;mara&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Multi-c&#225;mara&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th></tr></thead><tbody title="tbody"><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top">PETS 2006&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">720 x 576 p&#237;xeles&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">Estaci&#243;n de tren&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">11&#44;204&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">4&#44;703&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top">PETS 2007&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">720 x 576 p&#237;xeles&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">Aeropuerto&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">13&#44;207&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">-&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top">PETS 2009&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">768 x 576 p&#237;xeles&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">Estacionamiento &#40;exterior&#41;&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">2&#44;625&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">1&#44;837&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top">CAVIAR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">348 x 288 p&#237;xeles&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">Centro Comercial&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">7&#44;786&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">-&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top">MUBA&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">640 x 480 p&#237;xeles&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">Aeropuerto&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">-&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">5&#44;336&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top">Totales&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="" valign="top">&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="" valign="top">&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">34&#44;822&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">11&#44;876&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr></tbody></table>
                  """
              ]
              "imagenFichero" => array:1 [
                0 => "xTab1119069.png"
              ]
            ]
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0055" class="elsevierStyleSimplePara elsevierViewall">Descripci&#243;n de las bases de datos utilizadas</p>"
        ]
      ]
      8 => array:8 [
        "identificador" => "tbl0010"
        "etiqueta" => "Tabla 2"
        "tipo" => "MULTIMEDIATABLA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "detalles" => array:1 [
          0 => array:3 [
            "identificador" => "at2"
            "detalle" => "Tabla "
            "rol" => "short"
          ]
        ]
        "tabla" => array:1 [
          "tablatextoimagen" => array:1 [
            0 => array:2 [
              "tabla" => array:1 [
                0 => """
                  <table border="0" frame="\n
                  \t\t\t\t\tvoid\n
                  \t\t\t\t" class=""><thead title="thead"><tr title="table-row"><th class="td-with-role" title="table-head ; entry_with_role_rowhead " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">N&#250;mero de filtros combinados&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">1&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">2&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">3&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">4&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">5&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">6&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th></tr></thead><tbody title="tbody"><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top">Par&#225;metros del filtro&#58; escala&#47;orientaci&#243;n&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">5&#46;6&#47;157&#46;5&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">11&#46;31&#47;90&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">16&#47;112&#46;5&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">8&#47;67&#46;5&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">11&#46;31&#47;135&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">16&#47;22&#46;5&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top">Medida F&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">0&#46;742&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">0&#46;732&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">0&#46;717&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">0&#46;749&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">0&#46;511&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">0&#46;491&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr></tbody></table>
                  """
              ]
              "imagenFichero" => array:1 [
                0 => "xTab1119065.png"
              ]
            ]
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0060" class="elsevierStyleSimplePara elsevierViewall">Rendimiento de la combinaci&#243;n de los primeros 6 mejores filtros de Gabor</p>"
        ]
      ]
      9 => array:8 [
        "identificador" => "tbl0015"
        "etiqueta" => "Tabla 3"
        "tipo" => "MULTIMEDIATABLA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "detalles" => array:1 [
          0 => array:3 [
            "identificador" => "at3"
            "detalle" => "Tabla "
            "rol" => "short"
          ]
        ]
        "tabla" => array:1 [
          "tablatextoimagen" => array:1 [
            0 => array:2 [
              "tabla" => array:1 [
                0 => """
                  <table border="0" frame="\n
                  \t\t\t\t\tvoid\n
                  \t\t\t\t" class=""><thead title="thead"><tr title="table-row"><th class="td" title="table-head  " rowspan="3" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">O</th><th class="td" title="table-head  " colspan="15" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">S</th></tr><tr title="table-row"><th class="td" title="table-head  " colspan="3" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">4</th><th class="td" title="table-head  " colspan="3" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">5&#46;6</th><th class="td" title="table-head  " colspan="3" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">8</th><th class="td" title="table-head  " colspan="3" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">11&#46;3</th><th class="td" title="table-head  " colspan="3" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">16</th></tr><tr title="table-row"><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Pre&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Rec&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">F&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Pre&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Rec&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">F&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Pre&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Rec&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">F&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Pre&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Rec&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">F&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Pre&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Rec&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">F&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th></tr></thead><tbody title="tbody"><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">0&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;81&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;57&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;67&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;8&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;62&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;7&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;76&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;64&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;7&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;751&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;662&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;704&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;741&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;269&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;394&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">22&#46;5&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;77&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;57&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;66&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;79&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;6&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;68&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;8&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;57&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;67&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;800&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;005&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;010&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;722&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;740&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;731&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">45&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;77&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;5&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;61&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;78&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;54&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;64&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;83&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;56&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;67&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">1&#46;000&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;013&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;025&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;728&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;644&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;683&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">67&#46;5&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;83&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;57&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;68&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;77&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;35&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;480&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;85</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;65</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;74</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;744&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;631&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;683&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;727&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;518&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;605&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">90&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;84&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;44&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;57&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;78&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;42&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;55&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;82&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;62&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;71&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;757</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;717</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;737</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;756&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;634&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;690&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">113&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;85&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;32&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;46&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;74&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;34&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;47&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;82&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;59&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;68&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;799&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;573&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;668&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;745</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;729</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;737</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">135&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;83&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;23&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;35&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;79&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;48&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;6&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;85&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;62&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;72&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;747&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;715&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;731&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;763&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;608&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;677&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">158&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;8&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;61&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;69&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;82</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;<span class="elsevierStyleBold">68</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">0&#46;74</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;81&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;15&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;25&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;739&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;674&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;705&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;751&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;512&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">0&#46;609&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr></tbody></table>
                  """
              ]
              "imagenFichero" => array:1 [
                0 => "xTab1119066.png"
              ]
            ]
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0065" class="elsevierStyleSimplePara elsevierViewall">Resultados para la selecci&#243;n de los mejores filtros de Gabor</p>"
        ]
      ]
      10 => array:8 [
        "identificador" => "tbl0020"
        "etiqueta" => "Tabla 4"
        "tipo" => "MULTIMEDIATABLA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "detalles" => array:1 [
          0 => array:3 [
            "identificador" => "at4"
            "detalle" => "Tabla "
            "rol" => "short"
          ]
        ]
        "tabla" => array:1 [
          "tablatextoimagen" => array:1 [
            0 => array:2 [
              "tabla" => array:1 [
                0 => """
                  <table border="0" frame="\n
                  \t\t\t\t\tvoid\n
                  \t\t\t\t" class=""><thead title="thead"><tr title="table-row"><th class="td" title="table-head  " rowspan="2" align="center" valign="middle" scope="col" style="border-bottom: 2px solid black">M&#233;todo</th><th class="td" title="table-head  " colspan="3" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">PETS 2006</th><th class="td" title="table-head  " colspan="3" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">PETS 2007</th><th class="td" title="table-head  " colspan="3" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">PETS 2009</th><th class="td" title="table-head  " colspan="3" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">CAVIAR</th><th class="td" title="table-head  " align="left" valign="top" scope="col">F promedio&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th></tr><tr title="table-row"><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Prec&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Recall&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">F&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Prec&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Recall&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">F&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Prec&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Recall&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">F&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Prec&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Recall&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">F&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="" valign="top" scope="col" style="border-bottom: 2px solid black">&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th></tr></thead><tbody title="tbody"><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">V&#38;J-1&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;92&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;07&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;13&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;79&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;07&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;13&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;96&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;33&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;48&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">1&#46;00&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;22&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;37&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;27&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">V&#38;J-2&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;93&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;27&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;42&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;97&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;17&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;29&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;99&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;49&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;61&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;99&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;21&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;35&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;41&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">Laptev&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;99&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;26&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;36&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;99&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;41&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;58&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">1&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;46&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;59&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;99&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;40&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;56&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;52&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">HOG&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;65&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;41&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;50&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;81&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;42&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;56&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;89&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;35&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;50&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;87&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;26&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;39&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;48&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top">HoGG&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;73&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;60&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top"><span class="elsevierStyleBold">0&#46;66</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;86&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;58&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top"><span class="elsevierStyleBold">0&#46;70</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;91&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;67&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top"><span class="elsevierStyleBold">0&#46;77</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;92&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top">0&#46;58&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top"><span class="elsevierStyleBold">0&#46;69</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="left" valign="top"><span class="elsevierStyleBold">0&#46;70</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr></tbody></table>
                  """
              ]
              "imagenFichero" => array:1 [
                0 => "xTab1119063.png"
              ]
            ]
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0070" class="elsevierStyleSimplePara elsevierViewall">Resultados obtenidos con cuatro bases de datos p&#250;blicas y con cuatro m&#233;todos de referencia</p>"
        ]
      ]
      11 => array:8 [
        "identificador" => "tbl0025"
        "etiqueta" => "Tabla 5"
        "tipo" => "MULTIMEDIATABLA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "detalles" => array:1 [
          0 => array:3 [
            "identificador" => "at5"
            "detalle" => "Tabla "
            "rol" => "short"
          ]
        ]
        "tabla" => array:1 [
          "tablatextoimagen" => array:1 [
            0 => array:2 [
              "tabla" => array:1 [
                0 => """
                  <table border="0" frame="\n
                  \t\t\t\t\tvoid\n
                  \t\t\t\t" class=""><thead title="thead"><tr title="table-row"><th class="td-with-role" title="table-head ; entry_with_role_rowhead " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">Media&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">Desviaci&#243;n est&#225;ndar&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">Entrop&#237;a&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th></tr></thead><tbody title="tbody"><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top"><elsevierMultimedia ident="201607070024309131"></elsevierMultimedia>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top"><elsevierMultimedia ident="201607070024309132"></elsevierMultimedia>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top"><elsevierMultimedia ident="201607070024309133"></elsevierMultimedia>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top">Dispersi&#243;n&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">Energ&#237;a&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">Curtosis&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top"><elsevierMultimedia ident="201607070024309134"></elsevierMultimedia>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top"><elsevierMultimedia ident="201607070024309135"></elsevierMultimedia>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top"><elsevierMultimedia ident="201607070024309136"></elsevierMultimedia>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr></tbody></table>
                  """
              ]
              "imagenFichero" => array:1 [
                0 => "xTab1119067.png"
              ]
            ]
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0075" class="elsevierStyleSimplePara elsevierViewall">Ecuaciones para calcular las caracter&#237;sticas extra&#237;das del histograma en escala de grises</p>"
        ]
      ]
      12 => array:8 [
        "identificador" => "tbl0030"
        "etiqueta" => "Tabla 6"
        "tipo" => "MULTIMEDIATABLA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "detalles" => array:1 [
          0 => array:3 [
            "identificador" => "at6"
            "detalle" => "Tabla "
            "rol" => "short"
          ]
        ]
        "tabla" => array:1 [
          "tablatextoimagen" => array:1 [
            0 => array:2 [
              "tabla" => array:1 [
                0 => """
                  <table border="0" frame="\n
                  \t\t\t\t\tvoid\n
                  \t\t\t\t" class=""><thead title="thead"><tr title="table-row"><th class="td-with-role" title="table-head ; entry_with_role_rowhead " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">Energ&#237;a&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">M&#225;xima probabilidad&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="center" valign="top" scope="col" style="border-bottom: 2px solid black">Entrop&#237;a&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th></tr></thead><tbody title="tbody"><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top"><elsevierMultimedia ident="201607070024309137"></elsevierMultimedia>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top"><span class="elsevierStyleItalic">max</span><span class="elsevierStyleInf"><span class="elsevierStyleItalic">i&#44;j</span></span><span class="elsevierStyleItalic">GCM</span> &#40;<span class="elsevierStyleItalic">i&#44; j</span>&#41;&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top"><elsevierMultimedia ident="201607070024309138"></elsevierMultimedia>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top">Inercia&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="" valign="top">&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top">Homogeneidad&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="center" valign="top"><elsevierMultimedia ident="201607070024309139"></elsevierMultimedia>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="" valign="top">&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="center" valign="top"><elsevierMultimedia ident="2016070700243091310"></elsevierMultimedia>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr></tbody></table>
                  """
              ]
              "imagenFichero" => array:1 [
                0 => "xTab1119064.png"
              ]
            ]
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0080" class="elsevierStyleSimplePara elsevierViewall">Ecuaciones para calcular las caracter&#237;sticas extra&#237;das a partir de la GCM</p>"
        ]
      ]
      13 => array:8 [
        "identificador" => "tbl0035"
        "etiqueta" => "Tabla 7"
        "tipo" => "MULTIMEDIATABLA"
        "mostrarFloat" => true
        "mostrarDisplay" => false
        "detalles" => array:1 [
          0 => array:3 [
            "identificador" => "at7"
            "detalle" => "Tabla "
            "rol" => "short"
          ]
        ]
        "tabla" => array:1 [
          "tablatextoimagen" => array:1 [
            0 => array:2 [
              "tabla" => array:1 [
                0 => """
                  <table border="0" frame="\n
                  \t\t\t\t\tvoid\n
                  \t\t\t\t" class=""><thead title="thead"><tr title="table-row"><th class="td" title="table-head  " rowspan="2" align="left" valign="top" scope="col" style="border-bottom: 2px solid black">Base de datos</th><th class="td" title="table-head  " colspan="2" align="center" valign="top" scope="col" style="border-bottom: 2px solid black">PCA-FP NP</th><th class="td" title="table-head  " colspan="2" align="center" valign="top" scope="col" style="border-bottom: 2px solid black">PCA-FV P</th><th class="td" title="table-head  " colspan="2" align="center" valign="top" scope="col" style="border-bottom: 2px solid black">PCA-FV NP</th><th class="td" title="table-head  " colspan="2" align="center" valign="top" scope="col" style="border-bottom: 2px solid black">DM P</th><th class="td" title="table-head  " colspan="2" align="center" valign="top" scope="col" style="border-bottom: 2px solid black">DM NP</th><th class="td" title="table-head  " colspan="2" align="center" valign="top" scope="col" style="border-bottom: 2px solid black">KA P</th><th class="td" title="table-head  " colspan="2" align="center" valign="top" scope="col" style="border-bottom: 2px solid black">KA NP</th><th class="td" title="table-head  " colspan="2" align="center" valign="top" scope="col" style="border-bottom: 2px solid black">CM NP</th><th class="td" title="table-head  " colspan="2" align="center" valign="top" scope="col" style="border-bottom: 2px solid black">SP</th></tr><tr title="table-row"><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">TPR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">FAR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">TPR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">FAR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">TPR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">FAR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">TPR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">FAR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">TPR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">FAR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">TPR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">FAR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black">TPR&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black"><span class="elsevierStyleBold">FAR</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black"><span class="elsevierStyleBold">TPR</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black"><span class="elsevierStyleBold">FAR</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black"><span class="elsevierStyleBold">TPR</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th><th class="td" title="table-head  " align="left" valign="top" scope="col" style="border-bottom: 2px solid black"><span class="elsevierStyleBold">FAR</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</th></tr></thead><tbody title="tbody"><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top"><span class="elsevierStyleItalic"><span class="elsevierStyleBold">PETS 2006</span></span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">94&#46;89&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;05&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">95&#46;51&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">4&#46;37&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">94&#46;42&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;42&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">96&#46;16</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">3&#46;78</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">96&#46;16&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">3&#46;84&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">95&#46;26&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">7&#46;68&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">94&#46;58&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;30&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">94&#46;58&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;30&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">94&#46;58&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;36&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top"><span class="elsevierStyleItalic"><span class="elsevierStyleBold">PETS 2009</span></span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">94&#46;24</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">4&#46;44</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">91&#46;20&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">8&#46;40&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">92&#46;11&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">7&#46;65&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">94&#46;09&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;52&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">93&#46;53&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;91&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">94&#46;01&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;44&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">94&#46;01&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;76&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">93&#46;85&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;76&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">93&#46;93&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">5&#46;76&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr><tr title="table-row"><td class="td-with-role" title="table-entry ; entry_with_role_rowhead " align="left" valign="top"><span class="elsevierStyleItalic"><span class="elsevierStyleBold">MUBA</span></span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">90&#46;04&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">9&#46;83&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">93&#46;10</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top"><span class="elsevierStyleBold">6&#46;90</span>&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">90&#46;20&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">9&#46;74&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">91&#46;91&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">8&#46;06&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">91&#46;10&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">8&#46;90&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">92&#46;68&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">7&#46;25&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">92&#46;01&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">7&#46;99&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">90&#46;62&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">9&#46;35&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">90&#46;10&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td><td class="td" title="table-entry  " align="char" valign="top">9&#46;83&nbsp;\t\t\t\t\t\t\n
                  \t\t\t\t</td></tr></tbody></table>
                  """
              ]
              "imagenFichero" => array:1 [
                0 => "xTab1119068.png"
              ]
            ]
          ]
        ]
        "descripcion" => array:1 [
          "es" => "<p id="spar0085" class="elsevierStyleSimplePara elsevierViewall">Resultados obtenidos con los m&#233;todos de ponderaci&#243;n en bases de datos multi-c&#225;mara</p>"
        ]
      ]
      14 => array:5 [
        "identificador" => "201607070024309131"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "fx13.jpeg"
            "Alto" => 352
            "Ancho" => 783
            "Tamanyo" => 20118
          ]
        ]
      ]
      15 => array:5 [
        "identificador" => "201607070024309132"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "fx14.jpeg"
            "Alto" => 368
            "Ancho" => 1184
            "Tamanyo" => 28868
          ]
        ]
      ]
      16 => array:5 [
        "identificador" => "201607070024309133"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "fx15.jpeg"
            "Alto" => 352
            "Ancho" => 960
            "Tamanyo" => 28673
          ]
        ]
      ]
      17 => array:5 [
        "identificador" => "201607070024309134"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "fx16.jpeg"
            "Alto" => 344
            "Ancho" => 880
            "Tamanyo" => 25494
          ]
        ]
      ]
      18 => array:5 [
        "identificador" => "201607070024309135"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "fx17.jpeg"
            "Alto" => 344
            "Ancho" => 431
            "Tamanyo" => 14296
          ]
        ]
      ]
      19 => array:5 [
        "identificador" => "201607070024309136"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "fx18.jpeg"
            "Alto" => 351
            "Ancho" => 1192
            "Tamanyo" => 30291
          ]
        ]
      ]
      20 => array:5 [
        "identificador" => "201607070024309137"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "fx19.jpeg"
            "Alto" => 368
            "Ancho" => 984
            "Tamanyo" => 31984
          ]
        ]
      ]
      21 => array:5 [
        "identificador" => "201607070024309138"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "fx20.jpeg"
            "Alto" => 351
            "Ancho" => 1776
            "Tamanyo" => 51200
          ]
        ]
      ]
      22 => array:5 [
        "identificador" => "201607070024309139"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "fx21.jpeg"
            "Alto" => 367
            "Ancho" => 1344
            "Tamanyo" => 40096
          ]
        ]
      ]
      23 => array:5 [
        "identificador" => "2016070700243091310"
        "tipo" => "MULTIMEDIAFIGURA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "figura" => array:1 [
          0 => array:4 [
            "imagen" => "fx22.jpeg"
            "Alto" => 344
            "Ancho" => 800
            "Tamanyo" => 32046
          ]
        ]
      ]
      24 => array:6 [
        "identificador" => "eq0005"
        "etiqueta" => "&#40;1&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx1.jpeg"
              "Tamanyo" => 138939
              "Alto" => 1612
              "Ancho" => 1982
            ]
          ]
        ]
      ]
      25 => array:6 [
        "identificador" => "eq0010"
        "etiqueta" => "&#40;2&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx2.jpeg"
              "Tamanyo" => 36626
              "Alto" => 288
              "Ancho" => 1518
            ]
          ]
        ]
      ]
      26 => array:6 [
        "identificador" => "eq0015"
        "etiqueta" => "&#40;3&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx3.jpeg"
              "Tamanyo" => 32375
              "Alto" => 280
              "Ancho" => 1318
            ]
          ]
        ]
      ]
      27 => array:6 [
        "identificador" => "eq0020"
        "etiqueta" => "&#40;4&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx4.jpeg"
              "Tamanyo" => 85432
              "Alto" => 320
              "Ancho" => 2563
            ]
          ]
        ]
      ]
      28 => array:6 [
        "identificador" => "eq0025"
        "etiqueta" => "&#40;5&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx5.jpeg"
              "Tamanyo" => 84015
              "Alto" => 340
              "Ancho" => 2400
            ]
          ]
        ]
      ]
      29 => array:6 [
        "identificador" => "eq0030"
        "etiqueta" => "&#40;6&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx6.jpeg"
              "Tamanyo" => 79026
              "Alto" => 340
              "Ancho" => 2020
            ]
          ]
        ]
      ]
      30 => array:6 [
        "identificador" => "eq0035"
        "etiqueta" => "&#40;7&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx7.jpeg"
              "Tamanyo" => 41158
              "Alto" => 372
              "Ancho" => 1517
            ]
          ]
        ]
      ]
      31 => array:6 [
        "identificador" => "eq0045"
        "etiqueta" => "&#40;8&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx8.jpeg"
              "Tamanyo" => 46396
              "Alto" => 324
              "Ancho" => 1959
            ]
          ]
        ]
      ]
      32 => array:6 [
        "identificador" => "eq0050"
        "etiqueta" => "&#40;9&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx9.jpeg"
              "Tamanyo" => 45889
              "Alto" => 330
              "Ancho" => 1997
            ]
          ]
        ]
      ]
      33 => array:6 [
        "identificador" => "eq0055"
        "etiqueta" => "&#40;10&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx10.jpeg"
              "Tamanyo" => 29729
              "Alto" => 307
              "Ancho" => 1048
            ]
          ]
        ]
      ]
      34 => array:6 [
        "identificador" => "eq0060"
        "etiqueta" => "&#40;11&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx11.jpeg"
              "Tamanyo" => 50126
              "Alto" => 457
              "Ancho" => 1400
            ]
          ]
        ]
      ]
      35 => array:6 [
        "identificador" => "eq0065"
        "etiqueta" => "&#40;12&#41;"
        "tipo" => "MULTIMEDIAFORMULA"
        "mostrarFloat" => false
        "mostrarDisplay" => true
        "Formula" => array:1 [
          "imagen" => array:1 [
            0 => array:4 [
              "Fichero" => "fx12.jpeg"
              "Tamanyo" => 56072
              "Alto" => 427
              "Ancho" => 1430
            ]
          ]
        ]
      ]
    ]
    "bibliografia" => array:2 [
      "titulo" => "Referencias"
      "seccion" => array:1 [
        0 => array:2 [
          "identificador" => "bibs0005"
          "bibliografiaReferencia" => array:22 [
            0 => array:3 [
              "identificador" => "bib0005"
              "etiqueta" => "Alahi et al&#46;&#44; 2010"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Cascade of descriptors to detect and track objects across any network of cameras"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:4 [
                            0 => "A&#46; Alahi"
                            1 => "P&#46; Vandergheynst"
                            2 => "M&#46; Bierlaire"
                            3 => "M&#46; Kunt"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Computer Vision and Image Understanding"
                        "fecha" => "2010"
                        "volumen" => "114"
                        "paginaInicial" => "624"
                        "paginaFinal" => "640"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            1 => array:3 [
              "identificador" => "bib0010"
              "etiqueta" => "Bolle et al&#46;&#44; 2005"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "The relation between the roc curve and the cmc curve"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:5 [
                            0 => "R&#46; Bolle"
                            1 => "J&#46; Connell"
                            2 => "S&#46; Pankanti"
                            3 => "N&#46; Ratha"
                            4 => "A&#46; Senior"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Libro" => array:4 [
                        "fecha" => "2005"
                        "paginaInicial" => "15"
                        "paginaFinal" => "20"
                        "editorial" => "en&#58; Fourth IEEE Workshop on Automatic Identification Advanced Technologies"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            2 => array:3 [
              "identificador" => "bib0015"
              "etiqueta" => "Dalal y Triggs&#44; 2005"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Histograms of oriented gradients for human detection"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:2 [
                            0 => "N&#46; Dalal"
                            1 => "B&#46; Triggs"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Computer Vision and Pattern Recognition"
                        "fecha" => "2005"
                        "volumen" => "1"
                        "paginaInicial" => "886"
                        "paginaFinal" => "893"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            3 => array:3 [
              "identificador" => "bib0020"
              "etiqueta" => "Gabor&#44; 1946"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Theory of communication&#46; Part 1&#58; The analysis of information"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:1 [
                            0 => "D&#46; Gabor"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Journal of the Institution of Electrical Engineers - Part III&#58; Radio and Communication Engineering"
                        "fecha" => "1946"
                        "volumen" => "93"
                        "paginaInicial" => "429"
                        "paginaFinal" => "441"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            4 => array:3 [
              "identificador" => "bib0025"
              "etiqueta" => "Gosselin et al&#46;&#44; 2011"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Incremental kernel learning for active image retrieval without global dictionaries"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:3 [
                            0 => "P&#46;H&#46; Gosselin"
                            1 => "F&#46; Precioso"
                            2 => "S&#46; Philipp-Foliguet"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Pattern Recognition"
                        "fecha" => "2011"
                        "volumen" => "44"
                        "paginaInicial" => "2244"
                        "paginaFinal" => "2254"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            5 => array:3 [
              "identificador" => "bib0030"
              "etiqueta" => "Haralick et al&#46;&#44; 1973"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Textural features for image classification"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:3 [
                            0 => "R&#46; Haralick"
                            1 => "K&#46; Shanmugam"
                            2 => "I&#46; Dinstein"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Systems&#44; Man and Cybernetics&#44; IEEE Transactions on&#44; SMC-3"
                        "fecha" => "1973"
                        "volumen" => "113"
                        "paginaInicial" => "610"
                        "paginaFinal" => "621"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            6 => array:3 [
              "identificador" => "bib0035"
              "etiqueta" => "INRIA&#44; 2005"
              "referencia" => array:1 [
                0 => array:1 [
                  "referenciaCompleta" => "INRIA&#46; INRIA person dataset &#91;en l&#237;nea&#93;&#46; Disponible en&#58; http&#58;&#47;&#47;pascal&#46;inrialpes&#46;fr&#47;data&#47;human&#47;&#44; 2005&#46;"
                ]
              ]
            ]
            7 => array:3 [
              "identificador" => "bib0040"
              "etiqueta" => "Jain et al&#46;&#44; 2004"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Can soft biometric traits assist user recognition&#63;"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:3 [
                            0 => "A&#46;K&#46; Jain"
                            1 => "S&#46;C&#46; Dass"
                            2 => "K&#46; Nandakumar"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:4 [
                        "tituloSerie" => "Proceedings in Biometric Technology for Human Identification"
                        "fecha" => "2004"
                        "paginaInicial" => "561"
                        "paginaFinal" => "572"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            8 => array:3 [
              "identificador" => "bib0045"
              "etiqueta" => "Jolliffe&#44; 1973"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Discarding variables in a principal component analysis&#46; II&#58; Real Data"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:1 [
                            0 => "I&#46;T&#46; Jolliffe"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Journal of the Royal Statistical Society&#46; Series C &#40;Applied Statistics&#41;"
                        "fecha" => "1973"
                        "volumen" => "22"
                        "paginaInicial" => "21"
                        "paginaFinal" => "31"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            9 => array:3 [
              "identificador" => "bib0050"
              "etiqueta" => "Kamgar y Lawson&#44; 2011"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Toward development of a face recognition system for watchlist surveillance"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:2 [
                            0 => "B&#46; Kamgar-Parsi"
                            1 => "W&#46; Lawson"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:2 [
                      "doi" => "10.1109/TPAMI.2011.68"
                      "Revista" => array:6 [
                        "tituloSerie" => "IEEE Transactions on Pattern Analysis and Machine Intelligence"
                        "fecha" => "2011"
                        "volumen" => "33"
                        "paginaInicial" => "1925"
                        "paginaFinal" => "1937"
                        "link" => array:1 [
                          0 => array:2 [
                            "url" => "https://www.ncbi.nlm.nih.gov/pubmed/21422493"
                            "web" => "Medline"
                          ]
                        ]
                      ]
                    ]
                  ]
                ]
              ]
            ]
            10 => array:3 [
              "identificador" => "bib0055"
              "etiqueta" => "Kyrki et al&#46;&#44; 2004"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Simple gabor feature space for invariant object recognition"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:3 [
                            0 => "V&#46; Kyrki"
                            1 => "J&#46;K&#46; Kamarainen"
                            2 => "H&#46; K&#228;lvi&#228;inen"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Pattern Recognition Letters"
                        "fecha" => "2004"
                        "volumen" => "25"
                        "paginaInicial" => "311"
                        "paginaFinal" => "318"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            11 => array:3 [
              "identificador" => "bib0060"
              "etiqueta" => "Lades et al&#46;&#44; 1993"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Distortion invariant object recognition in the dynamic link architecture"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:7 [
                            0 => "M&#46; Lades"
                            1 => "J&#46;C&#46; Vorbr&#252;ggen"
                            2 => "J&#46;M&#46; Buhmann"
                            3 => "J&#46; Lange"
                            4 => "M&#46;C&#46; Von-Der"
                            5 => "R&#46;P&#46; W&#252;rtz"
                            6 => "W&#46; Konen"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "IEEE Transactions on Computers"
                        "fecha" => "1993"
                        "volumen" => "42"
                        "paginaInicial" => "300"
                        "paginaFinal" => "311"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            12 => array:3 [
              "identificador" => "bib0065"
              "etiqueta" => "Laptev&#44; 2006"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Improvements of object detection using boosted histograms"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:1 [
                            0 => "I&#46; Laptev"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Image Vision Computing"
                        "fecha" => "2006"
                        "volumen" => "27"
                        "paginaInicial" => "949"
                        "paginaFinal" => "958"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            13 => array:3 [
              "identificador" => "bib0070"
              "etiqueta" => "Milani et al&#46;&#44; 2013"
              "referencia" => array:1 [
                0 => array:1 [
                  "referenciaCompleta" => "Milani S&#46;&#44; Bernardini R&#46;&#44; Rinaldo R&#46;Z&#46; A saliency-based rate control for people detection in video&#44; en&#58; 2013 IEEE International Conference on Acoustics&#44; Speech and Signal Processing &#40;ICASSP&#41;&#44; mayo de 2013&#44; pp&#46; 2016-2020&#44; 26-31&#46;"
                ]
              ]
            ]
            14 => array:3 [
              "identificador" => "bib0075"
              "etiqueta" => "MIT&#44; 2000"
              "referencia" => array:1 [
                0 => array:1 [
                  "referenciaCompleta" => "MIT&#46; MIT pedestrian dataset &#91;en l&#237;nea&#93;&#46; Disponible en&#58; http&#58;&#47;&#47;cbcl&#46;mit&#46;edu&#47;cbcl&#47;softwaredatasets&#47;PedestrianData&#46;html&#46;&#44; 2000&#46;"
                ]
              ]
            ]
            15 => array:3 [
              "identificador" => "bib0080"
              "etiqueta" => "Moore y Bowden&#44; 2011"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Local binary patterns for multi-view facial expression recognition"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:2 [
                            0 => "S&#46; Moore"
                            1 => "R&#46; Bowden"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Computer Vision and Image Understanding"
                        "fecha" => "2011"
                        "volumen" => "115"
                        "paginaInicial" => "541"
                        "paginaFinal" => "558"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            16 => array:3 [
              "identificador" => "bib0085"
              "etiqueta" => "Nghiem y Bremond&#44; 2014"
              "referencia" => array:1 [
                0 => array:1 [
                  "referenciaCompleta" => "Nghiem-Tuan A&#46;N&#46; y Bremond F&#46; Background subtraction in people detection framework for RGB-D cameras&#44; en&#58; 11th IEEE International Conference on Advanced Video and Signal Based Surveillance &#40;AVSS&#41;&#44; agosto de 2014&#44; pp&#46; 241-246&#46;"
                ]
              ]
            ]
            17 => array:3 [
              "identificador" => "bib0090"
              "etiqueta" => "OPENCV&#44; 2013"
              "referencia" => array:1 [
                0 => array:1 [
                  "referenciaCompleta" => "OPENCV&#46; Open source computer vision&#46; 80&#44; 2013&#46;"
                ]
              ]
            ]
            18 => array:3 [
              "identificador" => "bib0095"
              "etiqueta" => "UNION&#44; 2009"
              "referencia" => array:1 [
                0 => array:1 [
                  "referenciaCompleta" => "UNION A&#46;C&#46;L&#46; <span class="elsevierStyleItalic">Is the U&#46;S&#46; turning into a surveillance society&#63;</span>&#44; American Civil Liberties Union&#44; 2009&#46;"
                ]
              ]
            ]
            19 => array:3 [
              "identificador" => "bib0100"
              "etiqueta" => "Vadivel et al&#46;&#44; 2007"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "An integrated color and intensity co-occurrence matrix"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:3 [
                            0 => "A&#46; Vadivel"
                            1 => "S&#46; Sural"
                            2 => "A&#46;K&#46; Majumdar"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Pattern Recognition Letters"
                        "fecha" => "2007"
                        "volumen" => "8"
                        "paginaInicial" => "974"
                        "paginaFinal" => "983"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            20 => array:3 [
              "identificador" => "bib0105"
              "etiqueta" => "Viola y Jones&#44; 2001"
              "referencia" => array:1 [
                0 => array:2 [
                  "contribucion" => array:1 [
                    0 => array:2 [
                      "titulo" => "Rapid object detection using a boosted cascade of simple features"
                      "autores" => array:1 [
                        0 => array:2 [
                          "etal" => false
                          "autores" => array:2 [
                            0 => "P&#46;A&#46; Viola"
                            1 => "M&#46;J&#46; Jones"
                          ]
                        ]
                      ]
                    ]
                  ]
                  "host" => array:1 [
                    0 => array:1 [
                      "Revista" => array:5 [
                        "tituloSerie" => "Computer Vision and Pattern Recognition"
                        "fecha" => "2001"
                        "volumen" => "1"
                        "paginaInicial" => "511"
                        "paginaFinal" => "518"
                      ]
                    ]
                  ]
                ]
              ]
            ]
            21 => array:3 [
              "identificador" => "bib0110"
              "etiqueta" => "Yuan et al&#46;&#44; 2003"
              "referencia" => array:1 [
                0 => array:1 [
                  "referenciaCompleta" => "Yuan X&#46;&#44; Sun Z&#46;&#44; Varol Y&#46;L&#46;&#44; Bebis G&#46; A distributed visual surveillance system&#44; Conference on Advanced Video and Signal Based Surveillance&#44; 2003&#44; pp&#46; 199-204&#46;"
                ]
              ]
            ]
          ]
        ]
      ]
    ]
    "lecturaRecomendada" => array:1 [
      0 => array:2 [
        "vista" => "all"
        "seccion" => array:3 [
          0 => array:2 [
            "vista" => "all"
            "bibliografiaReferencia" => array:6 [
              0 => array:3 [
                "identificador" => "bib0115"
                "etiqueta" => "Cristianini-Nello et al&#46;&#44; 2002"
                "referencia" => array:1 [
                  0 => array:2 [
                    "contribucion" => array:1 [
                      0 => array:2 [
                        "titulo" => "On kernel-target alignment"
                        "autores" => array:1 [
                          0 => array:2 [
                            "etal" => false
                            "autores" => array:4 [
                              0 => "Cristianini-Nello"
                              1 => "Kandola-Jaz"
                              2 => "Elisseeff-Andre"
                              3 => "J&#46; Shawe-Taylor"
                            ]
                          ]
                        ]
                      ]
                    ]
                    "host" => array:1 [
                      0 => array:1 [
                        "Revista" => array:5 [
                          "tituloSerie" => "Advances in Neural Information Processing Systems"
                          "fecha" => "2002"
                          "volumen" => "194"
                          "paginaInicial" => "367"
                          "paginaFinal" => "373"
                        ]
                      ]
                    ]
                  ]
                ]
              ]
              1 => array:3 [
                "identificador" => "bib0120"
                "etiqueta" => "Garcia-Mart&#237;n y Mart&#237;nez&#44; 2013"
                "referencia" => array:1 [
                  0 => array:2 [
                    "contribucion" => array:1 [
                      0 => array:2 [
                        "titulo" => "Enhanced people detection combining appearance and motion information"
                        "autores" => array:1 [
                          0 => array:2 [
                            "etal" => false
                            "autores" => array:2 [
                              0 => "A&#46; Garcia-Mart&#237;n"
                              1 => "J&#46; Mart&#237;nez"
                            ]
                          ]
                        ]
                      ]
                    ]
                    "host" => array:1 [
                      0 => array:1 [
                        "Revista" => array:5 [
                          "tituloSerie" => "Electronics Letters"
                          "fecha" => "2013"
                          "volumen" => "49"
                          "paginaInicial" => "256"
                          "paginaFinal" => "258"
                        ]
                      ]
                    ]
                  ]
                ]
              ]
              2 => array:3 [
                "identificador" => "bib0125"
                "etiqueta" => "Garc&#237;a-Mart&#237;n y Mart&#237;nez&#44; 2015"
                "referencia" => array:1 [
                  0 => array:2 [
                    "contribucion" => array:1 [
                      0 => array:2 [
                        "titulo" => "Post-processing approaches for improving people detection performance"
                        "autores" => array:1 [
                          0 => array:2 [
                            "etal" => false
                            "autores" => array:2 [
                              0 => "A&#46; Garc&#237;a-Mart&#237;n"
                              1 => "J&#46;M&#46; Mart&#237;nez"
                            ]
                          ]
                        ]
                      ]
                    ]
                    "host" => array:1 [
                      0 => array:1 [
                        "Revista" => array:5 [
                          "tituloSerie" => "Computer Vision and Image Understanding"
                          "fecha" => "2015"
                          "volumen" => "133"
                          "paginaInicial" => "76"
                          "paginaFinal" => "89"
                        ]
                      ]
                    ]
                  ]
                ]
              ]
              3 => array:3 [
                "identificador" => "bib0130"
                "etiqueta" => "Huang-Yueh-MinRay&#44; In press"
                "referencia" => array:1 [
                  0 => array:1 [
                    "referenciaCompleta" => "Huang-Yueh-MinRay X&#46; A unified hierarchical appearance model for people re-identification using multi-view vision sensors&#44; en&#58; Advances in Multimedia Information Processing - PCM&#44; vol&#250;men 5353&#44; pp&#46; 553-562&#46;"
                  ]
                ]
              ]
              4 => array:3 [
                "identificador" => "bib0135"
                "etiqueta" => "Kr&#252;ger y Sommer&#44; 2002"
                "referencia" => array:1 [
                  0 => array:2 [
                    "contribucion" => array:1 [
                      0 => array:2 [
                        "titulo" => "Gabor wavelet networks for efficient head pose estimation"
                        "autores" => array:1 [
                          0 => array:2 [
                            "etal" => false
                            "autores" => array:2 [
                              0 => "V&#46; Kr&#252;ger"
                              1 => "G&#46; Sommer"
                            ]
                          ]
                        ]
                      ]
                    ]
                    "host" => array:1 [
                      0 => array:1 [
                        "Revista" => array:5 [
                          "tituloSerie" => "Image and Vision Computing"
                          "fecha" => "2002"
                          "volumen" => "20"
                          "paginaInicial" => "665"
                          "paginaFinal" => "672"
                        ]
                      ]
                    ]
                  ]
                ]
              ]
              5 => array:3 [
                "identificador" => "bib0140"
                "etiqueta" => "Zweng y Kampel&#44; 2012"
                "referencia" => array:1 [
                  0 => array:1 [
                    "referenciaCompleta" => "Zweng A&#46; y Kampel M&#46; Improved relational feature model for people detection using histogram similarity functions&#44; en&#58; International Conference on Advanced Video and Signal-Based Surveillance &#40;AVSS&#41;&#44; 18-21 de septimbre de 2012&#44; pp&#46; 422-427&#46;"
                  ]
                ]
              ]
            ]
          ]
          1 => array:4 [
            "titulo" => "<span class="elsevierStyleSectionTitle" id="sect0105">Este art&#237;culo se cita</span>"
            "texto" => "<p id="par1005" class="elsevierStylePara elsevierViewall"><span class="elsevierStyleBold">Citaci&#243;n estilo Chicago</span></p>"
            "vista" => "all"
            "bibliografiaReferencia" => array:1 [
              0 => array:3 [
                "identificador" => "bib0145"
                "etiqueta" => "Moctezuma-Ochoa&#44; 2016"
                "referencia" => array:1 [
                  0 => array:2 [
                    "contribucion" => array:1 [
                      0 => array:2 [
                        "titulo" => "Re-identificaci&#243;n de personas a trav&#233;s de sus caracter&#237;sticas soft-biom&#233;tricas en un entorno multi-c&#225;mara de video vigilancia"
                        "autores" => array:1 [
                          0 => array:2 [
                            "etal" => false
                            "autores" => array:1 [
                              0 => "Daniela Alejandra Moctezuma-Ochoa"
                            ]
                          ]
                        ]
                      ]
                    ]
                    "host" => array:1 [
                      0 => array:1 [
                        "Revista" => array:6 [
                          "tituloSerie" => "Ingenier&#237;a Investigaci&#243;n y Tecnolog&#237;a"
                          "fecha" => "2016"
                          "volumen" => "XVII"
                          "numero" => "02"
                          "paginaInicial" => "257"
                          "paginaFinal" => "271"
                        ]
                      ]
                    ]
                  ]
                ]
              ]
            ]
          ]
          2 => array:3 [
            "texto" => "<p id="par2005" class="elsevierStylePara elsevierViewall"><span class="elsevierStyleBold">Citaci&#243;n estilo ISO 690</span></p>"
            "vista" => "all"
            "bibliografiaReferencia" => array:1 [
              0 => array:3 [
                "identificador" => "bib0150"
                "etiqueta" => "Moctezuma-Ochoa&#44; 2016"
                "referencia" => array:1 [
                  0 => array:2 [
                    "contribucion" => array:1 [
                      0 => array:2 [
                        "titulo" => "Re-identificaci&#243;n de personas a trav&#233;s de sus caracter&#237;sticas soft-biom&#233;tricas en un entorno multi-c&#225;mara de video vigilancia"
                        "autores" => array:1 [
                          0 => array:2 [
                            "etal" => false
                            "autores" => array:1 [
                              0 => "D&#46;A&#46; Moctezuma-Ochoa"
                            ]
                          ]
                        ]
                      ]
                    ]
                    "host" => array:1 [
                      0 => array:1 [
                        "Revista" => array:6 [
                          "tituloSerie" => "Ingenier&#237;a Investigaci&#243;n y Tecnolog&#237;a"
                          "fecha" => "2016 abril-junio"
                          "volumen" => "XVII"
                          "numero" => "2"
                          "paginaInicial" => "257"
                          "paginaFinal" => "271"
                        ]
                      ]
                    ]
                  ]
                ]
              ]
            ]
          ]
        ]
      ]
    ]
  ]
  "idiomaDefecto" => "es"
  "url" => "/14057743/0000001700000002/v1_201607070020/S1405774316300105/v1_201607070020/es/main.assets"
  "Apartado" => null
  "PDF" => "https://static.elsevier.es/multimedia/14057743/0000001700000002/v1_201607070020/S1405774316300105/v1_201607070020/es/main.pdf?idApp=UINPBA00004N&text.app=https://www.elsevier.es/"
  "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S1405774316300105?idApp=UINPBA00004N"
]
Información del artículo
ISSN: 14057743
Idioma original: Español
Datos actualizados diariamente
año/Mes Html Pdf Total
2024 Octubre 15 1 16
2024 Septiembre 71 4 75
2024 Agosto 85 10 95
2024 Julio 52 11 63
2024 Junio 41 8 49
2024 Mayo 56 4 60
2024 Abril 40 5 45
2024 Marzo 53 4 57
2024 Febrero 85 9 94
2024 Enero 108 13 121
2023 Diciembre 69 8 77
2023 Noviembre 75 9 84
2023 Octubre 137 8 145
2023 Septiembre 76 9 85
2023 Agosto 233 10 243
2023 Julio 162 8 170
2023 Junio 113 7 120
2023 Mayo 89 7 96
2023 Abril 84 4 88
2023 Marzo 92 8 100
2023 Febrero 76 2 78
2023 Enero 63 9 72
2022 Diciembre 93 11 104
2022 Noviembre 58 11 69
2022 Octubre 57 7 64
2022 Septiembre 69 12 81
2022 Agosto 65 14 79
2022 Julio 34 12 46
2022 Junio 46 7 53
2022 Mayo 51 12 63
2022 Abril 37 5 42
2022 Marzo 41 9 50
2022 Febrero 35 8 43
2022 Enero 29 7 36
2021 Diciembre 31 15 46
2021 Noviembre 24 11 35
2021 Octubre 28 26 54
2021 Septiembre 24 9 33
2021 Agosto 30 8 38
2021 Julio 26 6 32
2021 Junio 20 13 33
2021 Mayo 31 10 41
2021 Abril 83 24 107
2021 Marzo 47 13 60
2021 Febrero 33 6 39
2021 Enero 51 11 62
2020 Diciembre 47 4 51
2020 Noviembre 40 14 54
2020 Octubre 31 7 38
2020 Septiembre 22 6 28
2020 Agosto 32 15 47
2020 Julio 27 14 41
2020 Junio 19 9 28
2020 Mayo 72 14 86
2020 Abril 297 15 312
2020 Marzo 267 19 286
2020 Febrero 223 11 234
2020 Enero 103 15 118
2019 Diciembre 87 13 100
2019 Noviembre 146 4 150
2019 Octubre 200 6 206
2019 Septiembre 113 6 119
2019 Agosto 49 2 51
2019 Julio 37 11 48
2019 Junio 48 55 103
2019 Mayo 98 70 168
2019 Abril 94 14 108
2019 Marzo 26 7 33
2019 Febrero 49 11 60
2019 Enero 25 8 33
2018 Diciembre 21 0 21
2018 Noviembre 32 11 43
2018 Octubre 46 8 54
2018 Septiembre 41 12 53
2018 Agosto 32 3 35
2018 Julio 22 0 22
2018 Junio 19 9 28
2018 Mayo 27 0 27
2018 Abril 16 2 18
2018 Marzo 16 0 16
2018 Febrero 15 1 16
2018 Enero 13 0 13
2017 Diciembre 18 2 20
2017 Noviembre 10 1 11
2017 Octubre 15 2 17
2017 Septiembre 14 1 15
2017 Agosto 25 2 27
2017 Julio 14 2 16
2017 Junio 22 3 25
2017 Mayo 31 6 37
2017 Abril 17 1 18
2017 Marzo 23 12 35
2017 Febrero 16 0 16
2017 Enero 25 2 27
2016 Diciembre 32 2 34
2016 Noviembre 40 8 48
2016 Octubre 29 12 41
2016 Septiembre 23 5 28
2016 Agosto 6 1 7
2016 Julio 16 3 19
Mostrar todo

Siga este enlace para acceder al texto completo del artículo