1. Home /
  2. Publicaciones de patentes /
  3. LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D
logo-patente

Patente nacional por "LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D"

Este registro ha sido solicitado por

ZEBRA TECHNOLOGIES CORPORATION

a través del representante

DURAN-CORRETJER, S.L.P

Contacto
 
 
 




  • Estado: A punto de caducar
  • País:
  • España 
  • Fecha solicitud:
  • 27/05/2021 
  • Número solicitud:
  • P202430139 

  • Número publicación:
  • ES2967105 

  • Fecha de concesión:
  •  

  • Inventores:
  • Persona física 

  • Datos del titular:
  • ZEBRA TECHNOLOGIES CORPORATION
  • Datos del representante:
  • DURAN-CORRETJER, S.L.P
     
  • Clasificación Internacional de Patentes:
  • G06K 19/00 
  • Clasificación Internacional de Patentes de la publicación:
  • G06K 19/00 
  • Fecha de vencimiento:
  •  
Quiero registrar una patente
registro
Reivindicaciones:
+ ES-2967105_A21. Procedimiento de procesamiento de datos utilizando un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con el lector de códigos de barras y que tiene un segundo FOV que se superpone, por lo menos parcialmente, con el primer FOV, una imagen 3D de un segundo entorno que aparece dentro del segundo FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; identificar una o varias características de imagen 2D dentro del primer entorno a partir de los datos de imagen 2D; mejorar los datos de imagen 3D, dando como resultado datos de imagen 3D mejorados, mediante correlacionar las una o varias características de imagen 2D con por lo menos una o varias características de imagen 3D en los datos de imagen 3D; y procesar los datos de imagen 3D mejorados para por lo menos uno de (a) entrenar un modelo de reconocimiento de objetos con los datos de imagen 3D mejorados, (b) reconocer un objeto dentro de los datos de imagen 3D mejorados, (c) identificar una acción llevada a cabo por un usuario del lector de códigos de barras, y (d) cambiar por lo menos un parámetro asociado con el aparato de formación de imágenes 3D. 2. Procedimiento, según la reivindicación 1, en el que los datos de imagen 2D comprenden uno de datos de imagen monocromática, datos de imagen en escala de grises y datos de imagen polícroma, y en el que las una o varias características de imagen 2D incluyen por lo menos una de un código de barras y una o varias características geométricas de un objeto presentado dentro del primer FOV. 3. Procedimiento, según la reivindicación 2, en el que las una o varias características de imagen 2D incluyen el código de barras, y en el que mejorar los datos de imagen 3D incluye asignar una ubicación del código de barras de los datos de imagen 2D a los datos de imagen 3D. 4. Procedimiento, según la reivindicación 2, en el que los datos de imagen 2D comprenden datos de imagen polícroma, en el que las una o varias características de imagen 2D incluyen las una o varias características geométricas del objeto presentado dentro del primer FOV, y en el que mejorar los datos de imagen 3D incluye asignar por lo menos una parte de los datos de imagen polícroma a los datos de imagen 3D basándose, por lo menos en parte, en las una o varias características geométricas del objeto presentado dentro del primer FOV. 5. Procedimiento, según la reivindicación 2, en el que mejorar los datos de imagen 3D incluye, además, filtrar las por lo menos una o varias características de imagen 3D de modo que procesar los datos de imagen 3D mejorados excluye procesar datos de imagen asociados con las por lo menos una o varias características de imagen 3D. 6. Procedimiento, según la reivindicación 2, en el que mejorar los datos de imagen 3D incluye, además, filtrar las por lo menos una o varias características de imagen 3D de modo que procesar los datos de imagen 3D mejorados se limita a procesar los datos de imagen asociados con las por lo menos una o varias características de imagen 3D. 7. Procedimiento, según la reivindicación 2, en el que mejorar los datos de imagen 3D incluye, además, filtrar los datos de imagen 3D basándose en un intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D. 8. Procedimiento, según la reivindicación 7, en el que el lector de códigos de barras es un lector de códigos de barras estacionario configurado para ser posicionado dentro de una estación de trabajo y manejado por el operario, y en el que el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta un borde de la estación de trabajo próximo al operario. 9. Procedimiento, según la reivindicación 7, en el que el lector de códigos de barras es un lector de códigos de barras bióptico que tiene una zona de escaneado de producto, y en el que el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta el límite distal de la zona de escaneado de producto. 10. Procedimiento, según la reivindicación 1, en el que las una o varias características de imagen 2D incluyen por lo menos una de (i) por lo menos una parte de una mano del operario, y (ii) un objeto agarrado por la mano del operario. 11. Procedimiento, según la reivindicación 1, en el que procesar los datos de imagen 3D mejorados incluye identificar la acción llevada a cabo por el operario, y en respuesta a identificar la acción llevada a cabo por el operario como una de presentar un objeto dentro de una zona de escaneado de producto y presentar el objeto próximo a la zona de escaneado de producto y, en respuesta, además, a que no se detecta ningún código de barras dentro de los datos de imagen 2D, generar una alerta adecuada para señalizar un potencial evento de robo. 12. Procedimiento, según la reivindicación 1, en el que identificar las una o varias características de imagen 2D comprende: identificar características del entorno en la imagen 2D, en el que las características del entorno son características en la imagen fuera de un objeto presentado dentro del primer FOV; convertir las características del entorno en características de máscara configuradas para cubrir las características del entorno identificadas en la imagen 2D; e identificar las características de máscara como las una o varias características de imagen 2D. 13. Procedimiento, según la reivindicación 1, en el que identificar una o varias características de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; descodificar el código de barras para generar datos de carga útil de código de barras y determinar la identificación del objeto a partir de los datos de carga útil de código de barras; y determinar, a partir de la identificación del objeto, las una o varias características de imagen 2D. 14. Procedimiento, según la reivindicación 1, en el que procesar los datos de imagen 3D mejorados para entrenar el modelo de reconocimiento de objetos con los datos de magen 3D mejorados comprende: identificar un código de barras en los datos de imagen 2D, determinar un período de tiempo de evento de detección de código de barras y entrenar el modelo de reconocimiento de objetos con los datos de imagen 3D mejorados correspondientes al período de tiempo de evento de detección de código de barras; o identificar un código de barras en los datos de imagen 2D, identificar el objeto dentro de los datos de imagen 3D mejorados correspondiente al código de barras en los datos de imagen 2D, y, después de identificar otro objeto en la imagen 3D no correspondiente al código de barras, eliminar los otros objetos de los datos de imagen 3D mejorados antes de entrenar el modelo de reconocimiento de objetos con los datos de imagen 3D mejorados. 15. Procedimiento, según la reivindicación 1, en el que el por lo menos un parámetro asociado con el aparato de formación de imágenes 3D comprende una cantidad de iluminación proyectada del aparato de formación de imágenes 3D, una dirección de iluminación proyectada del aparato de formación de imágenes 3D, o una fuente de iluminación para el aparato de formación de imágenes 3D. 16. Procedimiento para identificar un escaneado apropiado de un objeto o un escaneado inapropiado del objeto utilizando un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con el lector de códigos de barras y que tiene un segundo FOV que se superpone, por lo menos parcialmente, con el primer FOV, una imagen 3D de un segundo entorno que aparece dentro del segundo FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; determinar una primera identificación de objeto del objeto utilizando los datos de imagen 2D; determinar una segunda identificación de objeto del objeto utilizando los datos de imagen 3D; y comparar la primera identificación del objeto con la segunda identificación del objeto, y determinar (a) el escaneado apropiado del objeto cuando la primera identificación del objeto coincide con la segunda identificación del objeto y (b) el escaneado inapropiado del objeto cuando la primera identificación del objeto no coincide con la segunda identificación del objeto. 17. Procedimiento, según la reivindicación 16, en el que determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. 18. Procedimiento, según la reivindicación 16, en el que determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: proporcionar los datos de imagen 2D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la primera identificación de objeto del objeto. 19. Procedimiento, según la reivindicación 16, en el que determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D comprende: proporcionar los datos de imagen 3D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la segunda identificación de objeto del objeto. 20. Procedimiento, según la reivindicación 16, en el que antes de determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D, el procedimiento comprende, además: comparar los datos de imagen 3D con los datos de imagen 2D; y eliminar características del entorno fuera del objeto de los datos de imagen 2D asándose en los datos de imagen 3D. 21. Procedimiento, según la reivindicación 16, en el que antes de determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, el procedimiento comprende: comparar los datos de imagen 3D con los datos de imagen 2D; y eliminar características del entorno fuera del objeto de los datos de imagen 3D basándose en los datos de imagen 2D. 22. Procedimiento, según la reivindicación 16, en el que determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D comprende: determinar una o varias características de color del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características de color. 23. Procedimiento, según la reivindicación 22, en el que las una o varias características de color comprenden un color del objeto. 24 Procedimiento, según la reivindicación 22, en el que las una o varias características de color comprenden un gradiente de color del objeto. 25. Procedimiento, según la reivindicación 16, en el que determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D comprende: determinar una o varias características geométricas del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características geométricas. 26. Procedimiento, según la reivindicación 25, en el que determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; y escodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. 27. Procedimiento, según la reivindicación 26, en el que los datos de imagen 3D incluyen una nube de puntos que comprende una pluralidad de puntos de datos, teniendo cada uno de los puntos de datos un valor de distancia asociado con una distancia desde el aparato de formación de imágenes 3D, y en el que determinar las una o varias características geométricas del objeto a partir de los datos de imagen 3D se basa en un primer subconjunto de los datos de imagen 3D y no se basa en un segundo subconjunto de los datos de imagen 3D, estando asociado el primer subconjunto de los datos de imagen 3D con un primer subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde al aparato de formación de imágenes 3D dentro de un intervalo predeterminado, estando asociado el segundo subconjunto de los datos de imagen 3D con un segundo subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde el aparato de formación de imágenes 3D fuera del intervalo predeterminado. 28. Procedimiento, según la reivindicación 16, en el que, en respuesta a determinar (a) el escaneado apropiado del objeto, el procedimiento comprende, además, procesar un registro de transacciones para incluir los datos asociados con el objeto, y en respuesta a determinar (b) el escaneado inapropiado del objeto, el procedimiento comprende, además, por lo menos uno de (i) generar una alerta adecuada para señalizar un potencial evento de robo, y (ii) procesar el registro de transacciones para no incluir los datos asociados con el objeto. 29. Procedimiento para identificar un escaneado inapropiado del objeto utilizando un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con el lector de códigos de barras y que tiene un segundo FOV que se superpone, por lo enos parcialmente, con el primer FOV, una imagen 3D de un segundo entorno que aparece dentro del segundo FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; identificar un objeto escaneable utilizando los datos de imagen 3D; y después de no poder determinar una identificación de objeto del objeto utilizando los datos de imagen 2D, determinar un escaneado inapropiado del objeto y generar una señal de alarma. 30. Procedimiento de funcionamiento de un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) dentro del lector de códigos de barras y que tiene un primer FOV, una imagen 3D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; llevar a cabo reconocimiento facial sobre los datos de imagen 3D e identificar una presencia de datos faciales en los datos de imagen 3D; y en respuesta a identificar la presencia de los datos faciales, ajustar por lo menos un parámetro de funcionamiento de un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras. 31. Procedimiento, según la reivindicación 30, en el que el lector de códigos de barras es un lector de códigos de barras de presentación, y en el que ajustar el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D incluye reducir la intensidad de por lo menos uno de un conjunto de iluminación y un conjunto de apuntamiento. 32. Procedimiento, según la reivindicación 30, en el que el lector de códigos de barras es un lector de códigos de barras de presentación, y en el que ajustar el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D incluye impedir la activación de por lo menos alguna parte del aparato de formación de imágenes 2D hasta que una realización subsiguiente de reconocimiento facial sobre unos datos de imagen 3D subsiguientes asociados con una imagen 3D subsiguiente no pueda identificar otra presencia de datos faciales en los datos de imagen 3D subsiguientes. 33. Procedimiento, según la reivindicación 30, en el que el procedimiento incluye, además, capturar una imagen 2D de un objeto, utilizar el aparato de formación de imágenes 2D ajustado según el por lo menos un parámetro de funcionamiento, y descodificar un código de barras en la imagen 2D para identificar el objeto. 34. Procedimiento, según la reivindicación 30, en el que identificar la presencia de los datos faciales en los datos de imagen 3D comprende determinar una posición de los datos faciales en un primer FOV del aparato de formación de imágenes 3D, y en el que ajustar los parámetros de funcionamiento del aparato de formación de imágenes 2D comprende ajustar los parámetros de funcionamiento basándose en la posición de los datos faciales. 35. Procedimiento, según la reivindicación 30, en el que los parámetros de funcionamiento comprenden un segundo FOV del aparato de formación de imágenes 2D. 36. Procedimiento, según la reivindicación 30, en el que los parámetros de funcionamiento comprenden una distancia focal del aparato de formación de imágenes 2D. 37. Procedimiento, según la reivindicación 30, en el que el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D es un tiempo de exposición, una duración de pulso de iluminación o un nivel de ampliación de imágenes. 38. Procedimiento de funcionamiento de un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D; llevar a cabo reconocimiento facial sobre los datos de imagen 2D e identificar una presencia de datos faciales en los datos de imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) dentro del lector de códigos de barras y que tiene un primer FOV, una imagen 3D de un segundo entorno que aparece dentro del primer FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; y en respuesta a identificar una o varias características de imagen 3D asociadas con los datos faciales en los datos de imagen 2D, llevar a cabo por lo menos uno de (a) determinar una distancia de los datos faciales desde el lector de códigos de barras y activar/desactivar selectivamente el escaneado del lector de códigos de barras basándose en la distancia, (b) determinar datos antropométricos para los datos faciales y determinar si los datos faciales son de una persona o no, y (c) ajustar por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D dentro del lector de códigos de barras. 39. Procedimiento, según la reivindicación 38, en el que el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D es un tiempo de exposición, una duración de pulso de iluminación, una posición de foco o un nivel de ampliación de imágenes. 40. Procedimiento, según la reivindicación 38, en el que identificar la presencia de los datos faciales en los datos de imagen 3D comprende determinar una posición de los datos faciales en un primer FOV del aparato de formación de imágenes 3D, y en el que ajustar los parámetros de funcionamiento del aparato de formación de imágenes 2D comprende ajustar los parámetros de funcionamiento basándose en la posición de los datos faciales. 41. Procedimiento de funcionamiento de una estación de escaneado de punto de venta que tiene un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con la estación de escaneado de punto de venta y que tiene un primer FOV, una imagen 3D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; llevar a cabo reconocimiento facial sobre los datos de imagen 3D e identificar una presencia de datos faciales en los datos de imagen 3D; llevar a cabo una identificación facial sobre los datos faciales y autenticar la identificación facial; y en respuesta a autenticar la identificación facial, por lo menos uno de (a) capturar una imagen bidimensional (2D) de un objeto utilizando un aparato de formación de imágenes 2D dentro del lector de códigos de barras y descodificar un código de barras en la imagen 2D para identificar el objeto y (b) cumplir una condición de liberación para impedir una escodificación de un código de barras capturado en la imagen de la imagen 2D o para impedir añadir un elemento escaneado subsiguientemente a un registro de transacciones de elementos escaneados. 42. Procedimiento, según la reivindicación 41, en el que autenticar la identificación facial comprende comparar la identificación facial con una base de datos de usuarios autorizados. 43. Procedimiento, según la reivindicación 41, en el que autenticar la identificación facial comprende determinar que los datos faciales están en una posición aceptable dentro del primer FOV del aparato de formación de imágenes 3D. 44. Procedimiento, según la reivindicación 41, en el que antes de llevar a cabo reconocimiento facial sobre los datos de imagen 3D y de identificar la presencia de los datos faciales en los datos de imagen 3D, el procedimiento comprende: identificar características del entorno en los datos de imagen 3D, siendo las características del entorno características en la imagen 3D fuera del objeto; y eliminar características del entorno de los datos de imagen 3D. 45. Procedimiento de visión artificial que comprende: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) , una imagen 2D de un objeto, identificar un código de barras del objeto en la imagen 2D, y determinar una o varias características de objeto tridimensional (3D) del objeto a partir del código de barras en la imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) del sistema de visión artificial, una imagen 3D de un entorno y almacenar datos de imagen 3D correspondientes a la imagen 3D; examinar los datos de imagen 3D para detectar una presencia de las una o varias características de objeto 3D; en respuesta a determinar que por lo menos una de las una o varias características de objeto 3D está ausente de los datos de imagen 3D, proporcionar una señal de detección de fallo digital a un usuario del sistema de visión artificial; y en respuesta a determinar que por lo menos una de las una o varias características de objeto 3D está presente en los datos de imagen 3D, cambiar por lo menos un parámetro sociado con el sistema de visión artificial. 46. Procedimiento de visión artificial, según la reivindicación 45, en el que determinar las una o varias características de objeto 3D del objeto a partir del código de barras en la imagen 2D comprende: descodificar el código de barras para generar datos de carga útil de código de barras y determinar la identificación del objeto a partir de los datos de carga útil de código de barras; y determinar, a partir de la identificación del objeto, las una o varias características de objeto 3D del objeto. 47. Procedimiento de visión artificial, según la reivindicación 45, en el que determinar las una o varias características de objeto 3D del objeto a partir del código de barras en la imagen 2D comprende: determinar una orientación del objeto a partir de una ubicación del código de barras en la imagen 2D; y determinar, a partir de la orientación del objeto, las una o varias características de objeto 3D como un subconjunto de características de objeto 3D disponibles. 48. Procedimiento de visión artificial, según la reivindicación 45, en el que las una o varias características de objeto 3D son por lo menos una de una característica dimensional y una característica de forma. 49. Procedimiento de visión artificial, según la reivindicación 45, en el que cambiar por lo menos un parámetro asociado con el sistema de visión artificial comprende cambiar un tiempo de exposición de un aparato de formación de imágenes 2D del sistema de visión artificial, una duración de pulso de iluminación de un conjunto de iluminación del sistema de visión artificial, una posición focal del aparato de formación de imágenes 2D del sistema de visión artificial, un nivel de ampliación de imágenes del aparato de formación de imágenes 2D, un brillo de iluminación, una longitud de onda de iluminación, o una fuente de iluminación del sistema de visión artificial. 50. Procedimiento de visión artificial, según la reivindicación 49, en el que la fuente de iluminación es una fuente de iluminación difusa o una fuente de iluminación directa. 51. Procedimiento de visión artificial, según la reivindicación 49, en el que cambiar la fuente de iluminación comprende cambiar de una fuente de iluminación que emite a una primera longitud de onda a una fuente de iluminación que emite a una segunda longitud de onda, diferente de la primera longitud de onda. 52. Estación de escaneado, que comprende: un aparato de formación de imágenes bidimensionales (2D) configurado para: capturar una imagen 2D de un objeto en un campo de visión (FOV) del aparato de formación de imágenes 2D; identificar un código de barras en la imagen 2D; e identificar el objeto a partir de una carga útil de código de barras; un aparato de formación de imágenes 3D configurado para: capturar una imagen 3D del objeto en un FOV del aparato de formación de imágenes 3D; y generar datos de imagen 3D a partir de la imagen 3D; y un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: identifique una o varias características de objeto 3D partir de los datos de imagen 3D; evalúe las una o varias características de objeto 3D con respecto a una identidad del objeto; y en respuesta a evaluar las una o varias características de objeto 3D con respecto a la identidad del objeto, ajuste un parámetro de funcionamiento de la estación de escaneado. 53. Estación de escaneado, según la reivindicación 52, en la que los datos de imagen 3D comprenden datos de nube de puntos 3D y las una o varias características de objeto 3D comprenden por lo menos una de características geométricas del objeto, color del objeto, gradación de color del objeto. 54. Estación de escaneado, según la reivindicación 52, en la que los datos de imagen 3D omprenden datos de nube de puntos 3D y las una o varias características de objeto 3D comprenden una posición del objeto en el FOV del aparato de formación de imágenes 3D. 55. Estación de escaneado, según la reivindicación 54, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine si la posición del objeto en el FOV del aparato de formación de imágenes 3D está en un intervalo aceptable para capturar la imagen 2D del objeto utilizando el aparato de formación de imágenes 2D; y en respuesta a que la posición del objeto en el FOV del aparato de formación de imágenes 3D no está en el intervalo aceptable, se abstenga de capturar una imagen 2D subsiguiente por el aparato de formación de imágenes 2D, hasta que se cumpla una condición de liberación. 56. Estación de escaneado, según la reivindicación 52, en la que el parámetro de funcionamiento comprende por lo menos uno de una intensidad de iluminación de un aparato de iluminación en el aparato de formación de imágenes 2D, un FOV del aparato de formación de imágenes 2D y una distancia focal del aparato de formación de imágenes 2D. 57. Estación de escaneado, según la reivindicación 52, en la que la estación de escaneado es un escáner bióptico que tiene una parte de torre y una parte de plato. 58. Estación de escaneado, según la reivindicación 57, en la que el aparato de formación de imágenes 3D es uno de la parte de torre y la parte de plato, y el aparato de formación de imágenes 2D está en la otra de la parte de torre y la parte de plato. 59. Estación de escaneado, según la reivindicación 57, en la que el aparato de formación de imágenes 3D y el aparato de formación de imágenes 2D están ambos en una de la parte de torre y la parte de plato. 60. Estación de escaneado, según la reivindicación 57, que comprende, además, un plato de peso dentro de la parte de plato, estando configurado el plato de peso para medir, mediante un módulo de pesaje, un peso de un objeto colocado en el plato de peso, teniendo el plato de peso una superficie de pesaje, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, a partir de los datos de imagen 3D, una posición del objeto relativa al plato de peso;y en respuesta a que la posición del objeto relativa al plato de peso esté en una posición de fallo de plato de peso, modifique el funcionamiento del módulo de pesaje de un primer estado a un segundo estado, hasta que se cumpla una condición de liberación. 61. Estación de escaneado, según la reivindicación 60, en la que el primer estado del módulo de pesaje permite informar del peso del objeto colocado en el plato de peso, y en la que el segundo estado del módulo de pesaje impide informar del peso del objeto colocado en el plato de peso. 62. Estación de escaneado, según la reivindicación 60, en la que la posición de fallo de plato de peso comprende una posición sobresaliente, donde por lo menos una parte del objeto sobresale del plato de peso. 63. Estación de escaneado, según la reivindicación 60, en la que la posición de fallo de plato de peso comprende una posición suspendida, donde el objeto está suspendido, por lo menos parcialmente, sobre el plato de peso. 64. Estación de escaneado, según la reivindicación 52, que comprende, además, un plato de peso dentro de la parte de plato, estando configurado el plato de peso para medir, mediante un módulo de pesaje, un peso de un objeto colocado en el plato de peso, teniendo el plato de peso una superficie de pesaje, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: detecte, a partir de los datos de imagen 3D, que una mano del operario está en contacto con el objeto; y en respuesta a una detección de que la mano del operario está en contacto con el objeto, modifique el funcionamiento del módulo de pesaje de un primer estado a un segundo estado, hasta que se cumpla una condición de liberación. 65. Estación de escaneado, que comprende: un aparato de formación de imágenes 2D configurado para capturar una imagen 2D de un objeto en un campo de visión del aparato de formación de imágenes 2D y generar datos de imagen 2D a partir de la imagen 2D; un aparato de formación de imágenes 3D configurado para capturar una imagen 3D del objeto en un campo de visión del aparato de formación de imágenes 3D y generar datos de imagen 3D a partir de la imagen 3D; y un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: compare los datos de imagen 3D con los datos de imagen 2D y lleve a cabo un proceso de autenticación en el objeto. 66. Estación de escaneado, según la reivindicación 65, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine una primera identificación de objeto del objeto utilizando los datos de imagen 2D; determine una segunda identificación de objeto del objeto utilizando los datos de imagen 3D; y compare la primera identificación del objeto con la segunda identificación del objeto y determine (a) un escaneado apropiado del objeto cuando la primera identificación del objeto coincide con la segunda identificación del objeto y (b) un escaneado inapropiado del objeto cuando la primera identificación del objeto no coincide con la segunda identificación del objeto. 67. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la primera identificación de objeto del objeto utilizando los datos de imagen 2D, mediante: identificar un código de barras para el objeto en los datos de imagen 2D; y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. 68. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, demás, instrucciones que, cuando se ejecutan, hacen que el procesador determine la primera identificación de objeto del objeto utilizando los datos de imagen 2D, mediante: proporcionar los datos de imagen 2D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la primera identificación de objeto del objeto. 69. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, mediante: proporcionar los datos de imagen 3D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la segunda identificación de objeto del objeto. 70. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador, antes de determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D: compare los datos de imagen 3D con los datos de imagen 2D; y elimine características del entorno fuera del objeto de los datos de imagen 2D basándose en los datos de imagen 3D. 71. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador, antes de determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D: compare los datos de imagen 3D con los datos de imagen 2D; y elimine características del entorno fuera del objeto de los datos de imagen 3D basándose en los datos de imagen 2D. 72. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, demás, instrucciones que, cuando se ejecutan, hacen que el procesador determine la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, mediante: determinar una o varias características de color del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características de color. 73. Estación de escaneado, según la reivindicación 72, en la que las una o varias características de color comprenden un color del objeto. 74. Estación de escaneado, según la reivindicación 72, en la que las una o varias características de color comprenden un gradiente de color del objeto. 75. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, mediante: determinar una o varias características geométricas del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características geométricas. 76. Estación de escaneado, según la reivindicación 75, en la que determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. 77. Estación de escaneado, según la reivindicación 76, en la que los datos de imagen 3D incluyen una nube de puntos que comprende una pluralidad de puntos de datos, teniendo cada uno de los puntos de datos un valor de distancia asociado con una distancia desde el aparato de formación de imágenes 3D, y en el que determinar las una o varias características geométricas del objeto a partir de los atos de imagen 3D se basa en un primer subconjunto de los datos de imagen 3D y no se basa en un segundo subconjunto de los datos de imagen 3D, estando asociado el primer subconjunto de los datos de imagen 3D con un primer subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde el aparato de formación de imágenes 3D dentro de un intervalo predeterminado, estando asociado el segundo subconjunto de los datos de imagen 3D con un segundo subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde el aparato de formación de imágenes 3D fuera del intervalo predeterminado. 78. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador, en respuesta a determinar (a) el escaneado apropiado del objeto, procese un registro de transacciones para incluir los datos asociados con el objeto, y en respuesta a determinar (b) el escaneado inapropiado del objeto, por lo menos uno de (i) genere una alerta adecuada para señalizar un potencial evento de robo, y (ii) procese el registro de transacciones para no incluir los datos asociados con el objeto. 79. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, a partir de los datos de imagen 3D, una dirección de escaneado del objeto relativa al aparato de formación de imágenes 2D; y en respuesta a que la dirección de escaneado es una dirección de escaneado inapropiada, impida la captura de la imagen 2D por el aparato de formación de imágenes 2D, hasta que se cumpla una condición de liberación. 80. Estación de escaneado, según la reivindicación 65, en la que el objeto es un producto, y en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, como una primera identificación de objeto del objeto utilizando los datos de imagen 2D, uno o varios colores del objeto; determine, como una segunda identificación de objeto del objeto utilizando los datos de imagen 3D, una forma o dimensión del objeto; y compare la primera identificación del objeto con la segunda identificación del objeto y etermine un tipo del producto. 81. Estación de escaneado, según la reivindicación 65, en la que el objeto es un producto, y en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, como una primera identificación de objeto del objeto utilizando los datos de imagen 2D, uno o varios colores del objeto; determine, como una segunda identificación de objeto del objeto utilizando los datos de imagen 3D, una forma o dimensión del objeto; y compare la primera identificación del objeto con la segunda identificación del objeto y determine un listado de tipos potenciales del producto; y presente el listado a un usuario de la estación de escaneado para su selección. 82. Estación de escaneado, según la reivindicación 65, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, como una primera identificación de objeto del objeto utilizando los datos de imagen 2D, una presencia de un código de barras parcialmente descodificable y determine un listado de coincidencias de objeto potenciales a partir del código de barras parcialmente descodificable; determine, como una segunda identificación de objeto del objeto utilizando los datos de imagen 3D, una forma o dimensión del objeto; y compare la primera identificación del objeto con la segunda identificación del objeto y determine si una o varias del listado de coincidencias de objeto potenciales corresponden a la forma o a la dimensión indicadas en la segunda identificación del objeto a partir de los datos de imagen 3D. 83. Estación de escaneado, que comprende: un aparato de formación de imágenes bidimensionales (2D) configurado para capturar una imagen 2D de un objeto en un campo de visión (FOV) del aparato de formación de imágenes 2D y para identificar un código de barras en la imagen 2D para identificar el objeto a partir de la carga útil de código de barras; un aparato de formación de imágenes 3D configurado para capturar una imagen 3D del objeto en un FOV del aparato de formación de imágenes 3D y generar datos de imagen 3D a partir de la imagen 3D; y un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: capture la imagen 3D del objeto y genere los datos de imagen 3D; identifique una o varias características de objeto 3D del objeto a partir de los datos de imagen 3D; y lleve a cabo uno de (a) entrenar un modelo de reconocimiento de objetos con los datos de imagen 3D, o (b) reconocimiento de objetos utilizando los datos de imagen 3D. 84. Sistema, que comprende: un aparato de formación de imágenes bidimensionales (2D) que tiene un primer campo de visión (FOV) y está configurado para capturar una imagen 2D de un primer entorno que aparece dentro del primer FOV, almacenándose la imagen 2D como datos de imagen 2D correspondientes a la imagen 2D; un aparato de formación de imágenes tridimensionales (3D) que tiene un segundo FOV que se superpone por lo menos parcialmente con el primer FOV, estando configurado el aparato de formación de imágenes 3D para capturar una imagen 3D de un segundo entorno que aparece dentro del segundo FOV, almacenándose la imagen 3D como datos de imagen 3D correspondientes a la imagen 3D; y un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: identifique una o varias características de imagen 3D dentro del segundo entorno a partir de los datos de imagen 3D; mejore los datos de imagen 2D, dando como resultado datos de imagen 2D mejorados, mediante correlacionar las una o varias características de imagen 3D con por lo menos una o varias características de imagen 2D en los datos de imagen 2D; y procese los datos de imagen 2D mejorados para por lo menos uno de (a) descodificar un código de barras capturado dentro de los datos de imagen 2D mejorados, (b) entrenar un modelo de reconocimiento de objetos con los datos de imagen 2D mejorados, (c) reconocer un objeto dentro de los datos de imagen 2D mejorados, y (d) identificar una acción llevada a cabo por un operario del lector de códigos de barras. 85. Sistema, según la reivindicación 84, en el que los datos de imagen 3D comprenden atos de nube de puntos 3D y las una o varias características de imagen 3D incluyen una o varias características geométricas de un objeto presentado dentro del segundo FOV. 86. Sistema, según la reivindicación 84, en el que los datos de imagen 3D comprenden datos de nube de puntos 3D y las una o varias características de imagen 3D incluyen un color o una gradación de color correspondientes a un objeto presentado dentro del segundo FOV. 87. Sistema, según la reivindicación 84, en el que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador identifique las una o varias características de imagen 3D identificando las una o varias características de imagen 3D que están posicionadas dentro de un intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D. 88. Sistema, según la reivindicación 87, en el que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador mejore los datos de imagen 2D filtrando las por lo menos una o varias características de imagen 2D de modo que procesar los datos de imagen 2D mejorados excluye procesar datos de imagen asociados con las por lo menos una o varias características de imagen 2D. 89. Sistema, según la reivindicación 87, en el que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador mejore los datos de imagen 2D filtrando las por lo menos una o varias características de imagen 2D de modo que procesar los datos de imagen 2D mejorados se limita a procesar los datos de imagen asociados con las por lo menos una o varias características de imagen 2D. 90. Sistema, según la reivindicación 87, que comprende, además, un lector de códigos de barras estacionario configurado para ser posicionado dentro de una estación de trabajo y manejado por el operario, en el que el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta un borde de la estación de trabajo próximo al operario. 91. Sistema, según la reivindicación 87, que comprende, además, un lector de códigos de barras bióptico que tiene una zona de escaneado de producto, en el que el intervalo de distancia predeterminado fuera del aparato de formación de mágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta el límite distal de la zona de escaneado de producto. 92. Sistema, según la reivindicación 84, en el que las una o varias características de imagen 3D incluyen por lo menos una de (i) por lo menos una parte de una mano del operario, y (ii) un objeto agarrado por la mano del operario. 93. Sistema, según la reivindicación 84, en el que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: procese los datos de imagen 2D mejorados identificando la acción llevada a cabo por el operario; en respuesta a identificar la acción llevada a cabo por el operario como una de presentar un objeto dentro de una zona de escaneado de producto y presentar el objeto próximo a la zona de escaneado de producto y, en respuesta, además, a que no se detecta ningún código de barras dentro de por lo menos uno de los datos de imagen 2D y los datos de imagen 2D mejorados, genere una alerta adecuada para señalizar un potencial evento de robo.

Los productos y servicios protegidos por este registro son:
G06K 19/00

Descripciones:
+ ES-2967105_A2 Lectores de códigos de barras con una o varias cámaras 3D ESTADO DE LA TÉCNICA ANTERIOR Los lectores de simbología, tales como lectores de códigos de barras portátiles y lectores biópticos, utilizan imágenes bidimensionales para capturar imágenes de objetos, con diversos propósitos. En muchos entornos de almacenamiento, distribución y venta, estos lectores de simbología capturan datos de imagen 2D que se utilizan para realizar operaciones de descodificación de códigos de barras. Sin embargo, en algunos casos es deseable utilizar los datos de imagen 2D para otros propósitos. Por ejemplo, un lector bióptico puede capturar datos de imagen 2D desde su formador de imágenes 2D y utilizar esos datos de imagen para ayudar a determinar una condición de pesaje fuera de plato. En otros casos, el lector bióptico puede utilizar datos de imagen 2D para ayudar a determinar la naturaleza del producto que se está escaneando. En otros casos más, el lector bióptico puede utilizar datos de imagen 2D para ayudar a detectar la ocurrencia de un evento de descuentos ilícitos o de falsificación. Aunque la utilización de formadores de imágenes 2D y de análisis de imagen 2D ha existido en relación con los propósitos mencionados anteriormente y con otros, la tasa de éxito de detección todavía se podría mejorar. Además, el análisis de imagen que puede tener lugar está limitado por el hecho de que los datos de imagen capturados son bidimensionales. Por consiguiente, existe una necesidad continua de evolucionar y desarrollar lectores de códigos de barras biópticos, y otros lectores de simbología, que aumenten más el rendimiento del lector y que proporcionen lectores con nueva funcionalidad, que todavía no está disponible. CARACTERÍSTICAS En una realización, la presente invención es un procedimiento de escaneado de código de barras utilizando un lector de códigos de barras. El procedimiento incluye capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV, Field Of View) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D. El procedimiento incluye, además, apturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con el lector de códigos de barras y que tiene un segundo FOV que se superpone, por lo menos parcialmente, con el primer FOV, una imagen 3D de un segundo entorno que aparece dentro del segundo FOV y almacenar los datos de imagen 3D correspondientes a la imagen 3D. El procedimiento incluye, además, identificar una o varias características de imagen 3D dentro del segundo entorno a partir de los datos de imagen 3D; y mejorar los datos de imagen 2D, dando como resultado datos de imagen 2D mejorados, correlacionando las una o varias características de imagen 3D con por lo menos una o varias características de imagen 2D en los datos de imagen 2D. A partir de ahí, el procedimiento incluye procesar los datos de imagen 2D mejorados para por lo menos uno de (a) descodificar un código de barras capturado dentro de los datos de imagen 2D mejorados, (b) entrenar un modelo de reconocimiento de objetos con los datos de imagen 2D mejorados, (c) reconocer un objeto dentro de los datos de imagen 2D mejorados, (d) identificar una acción llevada a cabo por un operario del lector de códigos de barras, y (e) cambiar por lo menos un parámetro asociado con el funcionamiento del lector de códigos de barras. En una variación de esta realización, los datos de imagen 3D comprenden datos de nube de puntos 3D y las una o varias características de imagen 3D incluyen una o varias características geométricas de un objeto presentado dentro del segundo FOV. En otra variación de este procedimiento, los datos de imagen 3D comprenden datos de nube de puntos 3D y las una o varias características de imagen 3D incluyen un color o una gradación de color correspondiente a un objeto presentado dentro del segundo FOV. En otra variación más de la realización, identificar las una o varias características de imagen 3D incluye identificar las una o varias características de imagen 3D que están posicionadas dentro de un intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D. En algunas variaciones, mejorar los datos de imagen 2D incluye, además, filtrar las por lo menos una o varias características de imagen 2D de modo que procesar los datos de imagen 2D mejorados excluye procesar datos de imagen asociados con las por lo menos una o varias características de imagen 2D. En algunas variaciones, mejorar los datos de imagen 2D incluye, además, filtrar las por lo menos una o varias características de imagen 2D de modo que procesar los datos de imagen 2D mejorados se limita a procesar los datos de imagen asociados con las por lo menos una o varias características de imagen 2D. En algunas variaciones, el lector de códigos de barras es un lector de códigos de barras estacionario configurado para ser posicionado dentro de una estación de trabajo y manejado por el operario, y el intervalo de distancia redeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta el borde de la estación de trabajo próximo al operario. En algunas variaciones, el lector de códigos de barras es un lector de códigos de barras bióptico que tiene una zona de escaneado de producto, y el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta un límite distal de la zona de escaneado de producto. En otra variación de la realización, las una o varias características de imagen 3D incluyen por lo menos una de (i) por lo menos una parte de una mano del operario, y (ii) un objeto agarrado por la mano del operario. En otra variación de la realización, procesar los datos de imagen 2D mejorados incluye identificar la acción llevada a cabo por el operario, y, en respuesta a identificar la acción llevada a cabo por el operario como una de presentar un objeto dentro de una zona de escaneado de producto y presentar el objeto próximo a la zona de escaneado de producto, y, en respuesta, además, a que no se detecta ningún código de barras dentro de por lo menos uno de los datos de imagen 2D y los datos de imagen 2D mejorados, generar una alerta adecuada para señalizar un potencial evento de robo. En otra variación de esta realización, procesar los datos de imagen 2D mejorados incluye identificar la acción llevada a cabo por el operario, y, en respuesta a identificar la acción llevada a cabo por el operario como una de presentar un objeto dentro de una zona de escaneado de producto y presentar el objeto próximo a la zona de escaneado de producto, y detectar un código de barras parcialmente cubierto o un código de barras completamente cubierto en el objeto dentro de por lo menos uno de los datos de imagen 2D y los datos de imagen 2D mejorados, generar una alerta adecuada para señalizar un potencial evento de robo. En otra variación de esta realización, el por lo menos un parámetro asociado con el funcionamiento del lector de códigos de barras es un tiempo de exposición del lector de códigos de barras, una duración de pulso de iluminación del lector de códigos de barras, una posición de foco del lector de códigos de barras, un nivel de ampliación de imágenes del lector de códigos de barras y una fuente de iluminación del lector de códigos de barras. En un ejemplo, la fuente de iluminación es una fuente de iluminación difusa o una fuente de iluminación directa. En otra variación de esta realización, en respuesta a identificar las una o varias características de imagen 3D dentro del segundo entorno a partir de los datos de imagen 3D, se ajusta un brillo de iluminación del lector de códigos de barras antes de capturar la imagen 2D del primer entorno. En otra realización, la presente invención es un procedimiento de procesamiento de datos que utiliza un lector de códigos de barras. El procedimiento incluye capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D. El procedimiento incluye, además, capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con el lector de códigos de barras y que tiene un segundo FOV que se superpone, por lo menos parcialmente, con el primer FOV, una imagen 3D de un segundo entorno que aparece dentro del segundo FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D. El procedimiento incluye, además, identificar una o varias características de imagen 2D dentro del primer entorno a partir de los datos de imagen 2D; y mejorar los datos de imagen 3D, dando como resultado datos de imagen 3D mejorados, mediante correlacionar las una o varias características de imagen 2D con por lo menos una o varias características de imagen 3D en los datos de imagen 3D. A partir de ahí, el procedimiento incluye procesar los datos de imagen 3D mejorados para por lo menos uno de (a) entrenar un modelo de reconocimiento de objetos con los datos de imagen 3D mejorados, (b) reconocer un objeto dentro de los datos de imagen 3D mejorados, (c) identificar una acción llevada a cabo por un usuario del lector de códigos de barras, y (d) cambiar por lo menos un parámetro asociado con el aparato de formación de imágenes 3D. En una variación de esta realización, los datos de imagen 2D comprenden uno de datos de imagen monocromática, datos de imagen de escala de grises y datos de imagen polícroma, y las una o varias características de imagen 2D incluyen por lo menos una de un código de barras y una o varias características geométricas de un objeto presentado dentro del primer FOV. En otra variación de esta realización, las una o varias características de imagen 2D incluyen el código de barras, y mejorar los datos de imagen 3D incluye asignar una ubicación del código de barras de los datos de imagen 2D a los datos de imagen 3D. En tra variación de esta realización, los datos de imagen 2D comprenden datos de imagen polícroma, las una o varias características de imagen 2D incluyen las una o varias características geométricas del objeto presentado dentro del primer FOV, y mejorar los datos de imagen 3D incluye asignar por lo menos una parte de los datos de imagen polícroma a los datos de imagen 3D basándose, por lo menos en parte, en las una o varias características geométricas del objeto presentado dentro del primer FOV. En otra variación de esta realización, mejorar los datos de imagen 3D incluye, además, filtrar las por lo menos una o varias características de imagen 3D de modo que procesar los datos de imagen 3D mejorados excluye procesar datos de imagen asociados con las por lo menos una o varias características de imagen 3D. En otra variación de esta realización, mejorar los datos de imagen 3D incluye, además, filtrar las por lo menos una o varias características de imagen 3D de modo que procesar los datos de imagen 3D mejorados se limita a procesar los datos de imagen asociados con las por lo menos una o varias características de imagen 3D. En otra variación de esta realización, mejorar los datos de imagen 3D incluye, además, filtrar los datos de imagen 3D basándose en un intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D. En otra variación de esta realización, el lector de códigos de barras es un lector de códigos de barras estacionario configurado para ser posicionado dentro de una estación de trabajo y manejado por el operario, y el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta un borde de la estación próximo al operario. En otra variación de esta realización, el lector de códigos de barras es un lector de códigos de barras bióptico que tiene una zona de escaneado de producto, y el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta un límite distal de la zona de escaneado de producto. En otra variación de esta realización, las una o varias características de imagen 2D incluyen por lo menos una de (i) por lo menos una parte de una mano del operario, y (ii) un objeto agarrado por la mano del operario. En otra variación de esta realización, procesar los datos de imagen 3D mejorados incluye identificar la acción llevada a cabo por el operario, y, en respuesta a identificar la acción llevada a cabo por el operario como una de presentar un objeto dentro de una zona de escaneado de producto y presentar el objeto próximo a la zona de escaneado de producto, y, en respuesta, además, a que no se detecta ningún código de barras dentro e los datos de imagen 2D, generar una alerta adecuada para señalizar un potencial evento de robo. En otra variación de esta realización, identificar las una o varias características de imagen 2D incluye identificar características del entorno en la imagen 2D, en la que las características del entorno son características en la imagen fuera de un objeto presentado dentro del primer FOV; convertir las características del entorno en características de máscara configuradas para cubrir las características del entorno identificadas en la imagen 2D; e identificar las características de máscara como las una o varias características de imagen 2D. En otra variación de esta realización, identificar una o varias características de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; descodificar el código de barras para generar datos de carga útil de código de barras y determinar la identificación del objeto a partir de los datos de carga útil de código de barras; y determinar, a partir de la identificación del objeto, las una o varias características de imagen 2D. En otra variación de esta realización, procesar los datos de imagen 3D mejorados para entrenar el modelo de reconocimiento de objetos con los datos de imagen 3D mejorados incluye: identificar un código de barras en los datos de imagen 2D, determinar un período de tiempo de evento de detección de código de barras, y entrenar el modelo de reconocimiento de objetos con los datos de imagen 3D mejorados correspondientes al período de tiempo de evento de detección de código de barras; o identificar un código de barras en los datos de imagen 2D, identificar el objeto dentro de los datos de imagen 3D mejorados correspondiente al código de barras en los datos de imagen 2D, y, después de identificar otro objeto en la imagen 3D no correspondiente al código de barras, eliminar los otros objetos de los datos de imagen 3D mejorados antes de entrenar el modelo de reconocimiento de objetos con los datos de imagen 3D mejorados. En otra variación de esta realización, el por lo menos un parámetro asociado con el aparato de formación de imágenes 3D comprende una cantidad de iluminación proyectada del aparato de formación de imágenes 3D, una dirección de iluminación proyectada del aparato de formación de imágenes 3D o una fuente de iluminación para el aparato de formación de imágenes 3D. En otra realización, la presente invención es un procedimiento para identificar un escaneado apropiado de un objeto o un escaneado inapropiado del objeto utilizando un lector de códigos de barras. El procedimiento incluye capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D. El procedimiento incluye, además, capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con el lector de códigos de barras y que tiene un segundo FOV que se superpone, por lo menos parcialmente, con el primer FOV, una imagen 3D de un segundo entorno que aparece dentro del segundo FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D. El procedimiento incluye, además, determinar una primera identificación de objeto del objeto utilizando los datos de imagen 2D y determinar una segunda identificación de objeto del objeto utilizando los datos de imagen 3D. A partir de ahí, el procedimiento incluye comparar la primera identificación del objeto con la segunda identificación del objeto, y determinar (a) el escaneado apropiado del objeto cuando la primera identificación del objeto coincide con la segunda identificación del objeto y (b) el escaneado inapropiado del objeto cuando la primera identificación del objeto no coincide con la segunda identificación del objeto. En una variación de esta realización, determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. En una variación de esta realización, determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: proporcionar los datos de imagen 2D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la primera identificación de objeto del objeto. En una variación de esta realización, determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D comprende: proporcionar los datos de imagen 3D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la segunda identificación de objeto del objeto. En una variación de esta realización, antes de determinar la primera identificación de bjeto del objeto utilizando los datos de imagen 2D, el procedimiento incluye, además: comparar los datos de imagen 3D con los datos de imagen 2D; y eliminar características del entorno fuera del objeto de los datos de imagen 2D basándose en los datos de imagen 3D. En una variación de esta realización, antes de determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, el procedimiento incluye: comparar los datos de imagen 3D con los datos de imagen 2D; y eliminar características del entorno fuera del objeto de los datos de imagen 3D basándose en los datos de imagen 2D. En una variación de esta realización, determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D comprende: determinar una o varias características de color del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características de color. En una variación de esta realización, las una o varias características de color comprenden un color del objeto. En una variación de esta realización, las una o varias características de color comprenden un gradiente de color del objeto. En una variación de esta realización, determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D comprende: determinar una o varias características geométricas del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características geométricas. En una variación de esta realización, determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. En una variación de esta realización, los datos de imagen 3D incluyen una nube de puntos que comprende una pluralidad de puntos de datos, teniendo cada uno de los puntos de datos un valor de distancia asociado con una distancia desde el aparato de ormación de imágenes 3D, y determinar las una o varias características geométricas del objeto a partir de los datos de imagen 3D se basa en un primer subconjunto de los datos de imagen 3D y no se basa en un segundo subconjunto de los datos de imagen 3D, estando asociado el primer subconjunto de los datos de imagen 3D con un primer subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde al aparato de formación de imágenes 3D dentro de un intervalo predeterminado, estando asociado el segundo subconjunto de los datos de imagen 3D con un segundo subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde el aparato de formación de imágenes 3D fuera del intervalo predeterminado. En una variación de esta realización, en respuesta a determinar (a) el escaneado apropiado del objeto, el procedimiento comprende, además, procesar un registro de transacciones para incluir los datos asociados con el objeto, y, en respuesta a determinar (b) el escaneado inapropiado del objeto, el procedimiento comprende, además, por lo menos uno de (i) generar una alerta adecuada para señalizar un potencial evento de robo, y (ii) procesar el registro de transacciones para no incluir los datos asociados con el objeto. En otra realización, un procedimiento para identificar un escaneado inapropiado del objeto utilizando un lector de códigos de barras, el procedimiento incluye: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con el lector de códigos de barras y que tiene un segundo FOV que se superpone, por lo menos parcialmente, con el primer FOV, una imagen 3D de un segundo entorno que aparece dentro del segundo FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; identificar un objeto escaneable utilizando los datos de imagen 3D; y, después de no poder determinar una identificación de objeto del objeto utilizando los datos de imagen 2D, determinar un escaneado inapropiado del objeto y generar una señal de alarma. En otra realización, la presente invención es un procedimiento de funcionamiento de un lector de códigos de barras. El procedimiento incluye capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) dentro del lector de códigos de barras y que iene un primer FOV, una imagen 3D del primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; llevar a cabo reconocimiento facial en los datos de imagen 3D e identificar la presencia de datos faciales en los datos de imagen 3D; y, en respuesta a identificar la presencia de los datos faciales, ajustar por lo menos un parámetro de funcionamiento de un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras. En una variación de esta realización, el lector de códigos de barras es un lector de códigos de barras de presentación, y ajustar el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D incluye reducir la intensidad de por lo menos uno de un conjunto de iluminación y un conjunto de apuntamiento. En una variación de esta realización, el lector de códigos de barras es un lector de códigos de barras de presentación, y ajustar el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D incluye impedir la activación de por lo menos alguna parte del aparato de formación de imágenes 2D hasta que una realización subsiguiente de reconocimiento facial en unos datos de imagen 3D subsiguientes asociados con una imagen 3D subsiguiente no pueda identificar otra presencia de datos faciales en los datos de imagen 3D subsiguientes. En una variación de esta realización, el procedimiento incluye, además, capturar una imagen 2D de un objeto, utilizar el aparato de formación de imágenes 2D ajustado según el por lo menos un parámetro de funcionamiento, y descodificar un código de barras en la imagen 2D para identificar el objeto. En una variación de esta realización, identificar la presencia de los datos faciales en los datos de imagen 3D comprende determinar una posición de los datos faciales en un primer FOV del aparato de formación de imágenes 3D, y donde ajustar los parámetros de funcionamiento del aparato de formación de imágenes 2D comprende ajustar los parámetros de funcionamiento basándose en la posición de los datos faciales. En una variación de esta realización, los parámetros de funcionamiento comprenden un segundo FOV del aparato de formación de imágenes 2D. En una variación de esta realización, los parámetros de funcionamiento comprenden una distancia focal del aparato de formación de imágenes 2D. En una variación de esta realización, el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D es un tiempo de exposición, una duración de pulso de iluminación o un nivel de ampliación de imágenes. En otra realización, un procedimiento de funcionamiento de un lector de códigos de barras, el procedimiento incluye: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D; llevar a cabo reconocimiento facial en los datos de imagen 2D e identificar una presencia de datos faciales en los datos de imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) dentro del lector de códigos de barras y que tiene un primer FOV, una imagen 3D de un segundo entorno que aparece dentro del primer FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; y, en respuesta a identificar una o varias características de imagen 3D asociadas con los datos faciales en los datos de imagen 2D, llevar a cabo por lo menos uno de (a) determinar una distancia de los datos faciales desde el lector de códigos de barras y desactivar/activar selectivamente el escaneado del lector de códigos de barras basándose en la distancia, (b) determinar datos antropométricos para los datos faciales y determinar si los datos faciales son o no de una persona, y (c) ajustar por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D dentro del lector de códigos de barras. En una variación de esta realización, el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D es un tiempo de exposición, una duración de pulso de iluminación, una posición de foco o un nivel de ampliación de imágenes. En una variación de esta realización, identificar la presencia de los datos faciales en los datos de imagen 3D comprende determinar una posición de los datos faciales en un primer FOV del aparato de formación de imágenes 3D, y ajustar los parámetros de funcionamiento del aparato de formación de imágenes 2D comprende ajustar los parámetros de funcionamiento basándose en la posición de los datos faciales. En otra realización, la presente invención es un procedimiento de funcionamiento de una estación de escaneado de punto de venta que tiene un lector de códigos de barras. El rocedimiento incluye: capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con la estación de escaneado de punto de venta y que tiene un primer FOV, una imagen 3D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D. El procedimiento incluye, además, llevar a cabo reconocimiento facial en los datos de imagen 3D e identificar una presencia de datos faciales en los datos de imagen 3D; y llevar a cabo una identificación facial en los datos faciales y autenticar la identificación facial; y, en respuesta a autenticar la identificación facial, por lo menos uno de (a) capturar una imagen bidimensional (2D) de un objeto utilizando un aparato de formación de imágenes 2D dentro del lector de códigos de barras y descodificar un código de barras en la imagen 2D para identificar el objeto y (b) cumplir una condición de liberación para impedir una descodificación de un código de barras capturado en la imagen de la imagen 2D o para impedir añadir un elemento escaneado subsiguientemente a un registro de transacciones de elementos escaneados. En una variación de esta realización, autenticar la identificación facial comprende comparar la identificación facial con una base de datos de usuarios autorizados. En una variación de esta realización, autenticar la identificación facial comprende determinar que los datos faciales están en una posición aceptable dentro del primer FOV del aparato de formación de imágenes 3D. En una variación de esta realización, antes de llevar a cabo reconocimiento facial en los datos de imagen 3D e identificar la presencia de los datos faciales en los datos de imagen 3D, el procedimiento incluye: identificar características del entorno en los datos de imagen 3D, siendo las características del entorno características en la imagen 3D fuera del objeto; y eliminar las características del entorno de los datos de imagen 3D. En otra realización, un procedimiento de visión artificial incluye capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) , una imagen 2D de un objeto, identificar un código de barras del objeto en la imagen 2D, y determinar una o varias características de objeto tridimensional (3D) del objeto a partir del código de barras en la imagen 2D. El procedimiento incluye, además, capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) del sistema de visión artificial, una imagen 3D de un entorno y almacenar datos de imagen 3D correspondientes a la imagen 3D. El procedimiento incluye examinar los datos de imagen 3D para detectar la presencia de las una o varias características de objeto 3D; en respuesta a determinar que por lo menos una de las una o varias características de objeto 3D está ausente de los datos de imagen 3D, proporcionar una señal de detección de fallo digital a un usuario del sistema de visión artificial, y, en respuesta a determinar que por lo menos una de las una o varias características de objeto 3D está presente en los datos de imagen 3D, cambiar por lo menos un parámetro asociado con el sistema de visión artificial. En algunas variaciones de este procedimiento, determinar las una o varias características de objeto 3D del objeto a partir del código de barras en la imagen 2D, comprende: descodificar el código de barras para generar datos de carga útil de código de barras y determinar la identificación del objeto a partir de los datos de carga útil de código de barras; y determinar, a partir de la identificación del objeto, las una o varias características de objeto 3D del objeto. En algunas variaciones de este procedimiento, determinar las una o varias características de objeto 3D del objeto a partir del código de barras en la imagen 2D, comprende: determinar una orientación del objeto a partir de una ubicación del código de barras en la imagen 2D; y determinar, a partir de la orientación del objeto, las una o varias características de objeto 3D como un subconjunto de características de objeto 3D disponibles dentro del primer FOV. En algunas variaciones de este procedimiento, las una o varias características de objeto 3D son por lo menos una de una característica dimensional y una característica de forma. En otra variación de esta realización, cambiar por lo menos un parámetro asociado con el sistema de visión artificial comprende cambiar un tiempo de exposición de un aparato de formación de imágenes 2D del sistema de visión artificial, una duración de pulso de iluminación de un conjunto de iluminación del sistema de visión artificial, una posición focal del aparato de formación de imágenes 2D del sistema de visión artificial, un nivel de ampliación de imágenes del aparato de formación de imágenes 2D, un brillo de iluminación, una longitud de onda de iluminación o una fuente de iluminación del sistema de visión artificial. En algunas realizaciones de este tipo, la fuente de iluminación es una fuente de iluminación difusa o una fuente de iluminación directa. En algunas realizaciones de este tipo, cambiar la fuente de iluminación comprende cambiar de una fuente de iluminación que emite a una primera longitud de onda a una fuente de iluminación que emite a una segunda longitud de onda, diferente de la primera longitud de onda. En otra realización, la presente invención es una estación de escaneado. La estación de escaneado incluye un aparato de formación de imágenes bidimensionales (2D) configurado para: capturar una imagen 2D de un objeto en un campo de visión (FOV) del parato de formación de imágenes 2D; identificar un código de barras en la imagen 2D; e identificar el objeto a partir de la carga útil de código de barras. La estación de escaneado incluye, además, un aparato de formación de imágenes 3D configurado para: capturar una imagen 3D del objeto en un FOV del aparato de formación de imágenes 3D; y generar datos de imagen 3D a partir de la imagen 3D. La estación de escaneado incluye, además, un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: identifique una o varias características de objeto 3D a partir de los datos de imagen 3D; evalúe las una o varias características de objeto 3D frente a una identidad del objeto; y, en respuesta a evaluar las una o varias características de objeto 3D frente a la identidad del objeto, ajuste un parámetro de funcionamiento de la estación de escaneado. En una variación de esta realización, los datos de imagen 3D comprenden datos de nube de puntos 3D y las una o varias características de objeto 3D comprenden por lo menos una de características geométricas del objeto, color del objeto, gradación de color del objeto. En otra variación de esta realización, los datos de imagen 3D comprenden datos de nube de puntos 3D y las una o varias características de objeto 3D comprenden una posición del objeto en el FOV del aparato de formación de imágenes 3D. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine si la posición del objeto en el FOV del aparato de formación de imágenes 3D está en un intervalo aceptable para capturar la imagen 2D del objeto utilizando el aparato de formación de imágenes 2D; y, en respuesta a que la posición del objeto en el FOV del aparato de formación de imágenes 3D no está en el intervalo aceptable, abstenerse de capturar una imagen 2D subsiguiente por el aparato de formación de imágenes 2D, hasta que se cumpla una condición de liberación. En otra variación de esta realización, el parámetro de funcionamiento comprende por lo menos uno de una intensidad de iluminación de un aparato de iluminación en el aparato de formación de imágenes 2D, un FOV del aparato de formación de imágenes 2D y una distancia focal del aparato de formación de imágenes 2D. En otra variación de esta realización, la estación de escaneado es un escáner bióptico que tiene una parte de torre y una parte de plato. En algunas variaciones, el aparato de formación de imágenes 3D es una de la parte de torre y la parte de plato, y el aparato de formación de imágenes 2D está en la otra de la parte de torre y la parte de plato. En algunas variaciones, el aparato de formación de imágenes 3D y el aparato de formación de imágenes 2D están ambos en una de la parte de torre y la parte de plato. En algunas variaciones, la estación de escaneado incluye, además, un plato de peso dentro de la parte de plato, estando el plato de peso configurado para medir, mediante un módulo de pesaje, un peso de un objeto colocado en el plato de peso, teniendo el plato de peso una superficie de pesaje, y la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, a partir de los datos de imagen 3D, una posición del objeto relativa al plato de peso; y, en respuesta a que la posición del objeto relativa al plato de peso está en una posición de fallo de plato de peso, modificar el funcionamiento del módulo de pesaje de un primer estado a un segundo estado, hasta que se cumpla una condición de liberación. En algunas variaciones, el primer estado del módulo de pesaje permite informar del peso del objeto colocado en el plato de peso, y el segundo estado del módulo de pesaje impide informar del peso del objeto colocado en el plato de peso. En algunas variaciones, la posición de fallo de plato de peso comprende una posición sobresaliente, donde por lo menos una parte del objeto sobresale del plato de peso. En algunas variaciones, la posición de fallo de plato de peso comprende una posición suspendida, donde el objeto está suspendido, por lo menos parcialmente, sobre el plato de peso. En algunas variaciones de esta realización, la estación de escaneado incluye, además, un plato de peso dentro de la parte de plato, estando el plato de peso configurado para medir, mediante un módulo de pesaje, un peso de un objeto colocado en el plato de peso, teniendo el plato de peso una superficie de pesaje, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: detecte, a partir de los datos de imagen 3D, que una mano del operario está en contacto con el objeto; y, en respuesta a una detección de que la mano del operario está en contacto con el objeto, modifique el funcionamiento del módulo de pesaje de un primer estado a un segundo estado, hasta que se cumpla una condición de liberación. En otra realización, la presente invención es una estación de escaneado. La estación de escaneado incluye un aparato de formación de imágenes 2D configurado para capturar una imagen 2D de un objeto en un campo de visión del aparato de formación de imágenes 2D y generar datos de imagen 2D a partir de la imagen 2D; y un aparato de formación de imágenes 3D configurado para capturar una imagen 3D del objeto en un campo de visión del aparato de formación de imágenes 3D y generar datos de imagen 3D a partir de la imagen 3D. La estación de escaneado incluye, además, un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el rocesador: compare los datos de imagen 3D con los datos de imagen 2D y lleve a cabo un proceso de autenticación sobre el objeto. En una variación de esta realización, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine una primera identificación de objeto del objeto utilizando los datos de imagen 2D; determine una segunda identificación de objeto del objeto utilizando los datos de imagen 3D; y compare la primera identificación del objeto con la segunda identificación del objeto y determine (a) un escaneado apropiado del objeto cuando la primera identificación del objeto coincide con la segunda identificación del objeto y (b) un escaneado inapropiado del objeto cuando la primera identificación del objeto no coincide con la segunda identificación del objeto. En otra variación de esta realización, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la primera identificación de objeto del objeto utilizando los datos de imagen 2D, mediante: identificar un código de barras para el objeto en los datos de imagen 2D; y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. En otra variación de esta realización, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la primera identificación de objeto del objeto utilizando los datos de imagen 2D, mediante: proporcionar los datos de imagen 2D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la primera identificación de objeto del objeto. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, mediante: proporcionar los datos de imagen 3D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la segunda identificación de objeto del objeto. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador, antes de determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D: compare los datos de imagen 3D con los datos de imagen 2D; y elimine características del entorno fuera del objeto de los datos de imagen 2D basándose en los datos de imagen 3D. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador, antes de determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D: compare los datos de imagen 3D con los datos de imagen 2D; y limine características del entorno fuera del objeto de los datos de imagen 3D basándose en los datos de imagen 2D. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, mediante: determinar una o varias características de color del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características de color. En algunas variaciones, las una o varias características de color comprenden un color del objeto. En algunas variaciones, las una o varias características de color comprenden un gradiente de color del objeto. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, mediante: determinar una o varias características geométricas del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características geométricas. En algunas variaciones, determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. En algunas variaciones, los datos de imagen 3D incluyen una nube de puntos que comprende una pluralidad de puntos de datos, teniendo cada uno de los puntos de datos un valor de distancia asociado con una distancia desde el aparato de formación de imágenes 3D, y determinar las una o varias características geométricas del objeto a partir de los datos de imagen 3D se basa en un primer subconjunto de los datos de imagen 3D y no se basa en un segundo subconjunto de los datos de imagen 3D, estando asociado el primer subconjunto de los datos de imagen 3D con un primer subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde al aparato de formación de imágenes 3D dentro de un intervalo predeterminado, estando asociado el segundo subconjunto de los datos de imagen 3D con un segundo subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde el aparato de formación de imágenes 3D fuera del intervalo predeterminado. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se jecutan, hacen que el procesador, en respuesta a determinar (a) el escaneado apropiado del objeto, procese un registro de transacciones para incluir los datos asociados con el objeto, y, en respuesta a determinar (b) el escaneado inapropiado del objeto, por lo menos uno de (i) genere una alerta adecuada para señalizar un potencial evento de robo, y (ii) procese el registro de transacciones para no incluir los datos asociados con el objeto. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, a partir de los datos de imagen 3D, una dirección de escaneado del objeto relativa al aparato de formación de imágenes 2D; y, en respuesta a que la dirección de escaneado es una dirección de escaneado inapropiada, impida la captura de la imagen 2D por el aparato de formación de imágenes 2D, hasta que se cumpla una condición de liberación. En algunas variaciones, el objeto es un producto, y la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, como una primera identificación de objeto del objeto utilizando los datos de imagen 2D, uno o varios colores del objeto; determine, como una segunda identificación de objeto del objeto utilizando los datos de imagen 3D, una forma o dimensión del objeto; y compare la primera identificación del objeto con la segunda identificación del objeto y determine un tipo del producto. En algunas variaciones, el objeto es un producto, y la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, como una primera identificación de objeto del objeto utilizando los datos de imagen 2D, uno o varios colores del objeto; determine, como una segunda identificación de objeto del objeto utilizando los datos de imagen 3D, una forma o dimensión del objeto; y compare la primera identificación del objeto con la segunda identificación del objeto y determine un listado de tipos potenciales del producto; y presente el listado a un usuario de la estación de escaneado para su selección. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, como una primera identificación de objeto del objeto utilizando los datos de imagen 2D, una presencia de un código de barras parcialmente descodificable y determine un listado de coincidencias de objeto potenciales a partir del código de barras parcialmente descodificable; determine, como una segunda dentificación de objeto del objeto utilizando los datos de imagen 3D, una forma o dimensión del objeto; y compare la primera identificación del objeto con la segunda identificación del objeto y determine si una o varias del listado de coincidencias de objeto potenciales corresponde con la forma o dimensión indicadas en la segunda identificación del objeto a partir de los datos de imagen 3D. En otra realización, la presente invención es una estación de escaneado. La estación de escaneado incluye un aparato de formación de imágenes bidimensionales (2D) configurado para capturar una imagen 2D de un objeto en un campo de visión (FOV) del aparato de formación de imágenes 2D y para identificar un código de barras en la imagen 2D para identificar el objeto a partir de la carga útil de código de barras. La estación de escaneado incluye, además, un aparato de formación de imágenes 3D configurado para capturar una imagen 3D del objeto en un FOV del aparato de formación de imágenes 3D y generar datos de imagen 3D a partir de la imagen 3D. La estación de escaneado incluye, además, un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: capture la imagen 3D del objeto y genere los datos de imagen 3D; identifique una o varias características de objeto 3D del objeto a partir de los datos de imagen 3D; y lleve a cabo uno de (a) entrenar un modelo de reconocimiento de objetos con los datos de imagen 3D o (b) reconocimiento de objetos utilizando los datos de imagen 3D. En otra realización, la presente invención es un sistema. El sistema incluye un aparato de formación de imágenes bidimensionales (2D) que tiene un primer campo de visión (FOV) y está configurado para capturar una imagen 2D de un primer entorno que aparece dentro del primer FOV, almacenándose la imagen 2D como datos de imagen 2D correspondientes a la imagen 2D. El sistema incluye, además, un aparato de formación de imágenes tridimensionales (3D) que tiene un segundo FOV que se superpone, por lo menos parcialmente, con el primer FOV, estando configurado el aparato de formación de imágenes 3D para capturar una imagen 3D de un segundo entorno que aparece dentro del segundo FOV, almacenándose la imagen 3D como datos de imagen 3D correspondientes a la imagen 3D. El sistema incluye, además, un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: identifique una o varias características de imagen 3D dentro del segundo entorno a partir de los datos de imagen 3D; mejore los datos de imagen 2D, dando como resultado datos de imagen 2D mejorados, mediante correlacionar las una o varias características de imagen 3D con por lo menos una o varias características de imagen 2D en los datos de magen 2D; y procese los datos de imagen 2D mejorados para por lo menos uno de (a) descodificar un código de barras capturado dentro de los datos de imagen 2D mejorados, (b) entrene un modelo de reconocimiento de objetos con los datos de imagen 2D mejorados, (c) reconozca un objeto dentro de los datos de imagen 2D mejorados, e (d) identifique una acción llevada a cabo por un operario del lector de códigos de barras. En una variación de esta realización, los datos de imagen 3D comprenden datos de nube de puntos 3D y las una o varias características de imagen 3D incluyen una o varias características geométricas de un objeto presentado dentro del segundo FOV. En otra variación de esta realización, los datos de imagen 3D comprenden datos de nube de puntos 3D y las una o varias características de imagen 3D incluyen un color o una gradación de color correspondiente a un objeto presentado dentro del segundo FOV. En otra variación de esta realización, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador identifique las una o varias características de imagen 3D identificando las una o varias características de imagen 3D que están posicionadas dentro de un intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador mejore los datos de imagen 2D filtrando las por lo menos una o varias características de imagen 2D de modo que procesar los datos de imagen 2D mejorados excluye procesar datos de imagen asociados con las por lo menos una o varias características de imagen 2D. En algunas variaciones, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador mejore los datos de imagen 2D filtrando las por lo menos una o varias características de imagen 2D de modo que procesar los datos de imagen 2D mejorados se limita a procesar los datos de imagen asociados con las por lo menos una o varias características de imagen 2D. En algunas variaciones, el sistema incluye, además, un lector de códigos de barras estacionario configurado para ser posicionado dentro de una estación de trabajo y manejado por el operario, en el que el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta un borde de la estación de trabajo próximo al operario. En algunas variaciones, el sistema incluye, además, un lector de códigos de barras bióptico que tiene una zona de escaneado de producto, en el que el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta un límite distal de la zona de escaneado de producto. En otra variación de esta realización, las una o varias características de imagen 3D incluyen por lo menos una de (i) por lo menos una parte de una mano del operario, y (ii) un objeto agarrado por la mano del operario. En otra variación de esta realización, la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: procese los datos de imagen 2D mejorados identificando la acción llevada a cabo por el operario; y, en respuesta a identificar la acción llevada a cabo por el operario como una de presentar un objeto dentro de una zona de escaneado de producto y presentar el objeto próximo a la zona de escaneado de producto, y en respuesta, además, a que no se detecta ningún código de barras dentro de por lo menos uno de los datos de imagen 2D y los datos de imagen 2D mejorados, genere una alerta adecuada para señalizar un potencial evento de robo. BREVE DESCRIPCIÓN DE LOS DIBUJOS Las figuras adjuntas, en las que los numerales de referencia iguales se refieren a elementos idénticos o funcionalmente similares en todas las vistas independientes, junto con la siguiente descripción detallada, se incorporan a, y forman parte de la memoria descriptiva, y sirven para ilustrar adicionalmente realizaciones de conceptos que incluyen la invención reivindicada, y explican diversos principios y ventajas de dichas realizaciones. La figura 1 es una vista, en perspectiva, de un sistema de formación de imágenes de ejemplo, implementado en un sistema de punto de venta (POS, Point-Of-Sale) de ejemplo, que tiene un lector de simbología bióptico (también denominado en ocasiones "bióptico") que tiene un aparato de formación de imágenes bidimensionales (2D) y un aparato de formación de imágenes tridimensionales (3D) . La figura 2 es una vista, en perspectiva, de otro sistema de formación de imágenes de ejemplo, implementado en un sistema de POS de ejemplo, que tiene un lector de simbología bióptico con un aparato de formación de imágenes 2D y un aparato de formación de imágenes 3D. La figura 3 es una vista, en perspectiva, de otro sistema de formación de imágenes de ejemplo, implementado en un sistema de POS de ejemplo, que tiene un lector de simbología bióptico con un aparato de formación de imágenes 2D y un aparato de ormación de imágenes 3D. Las figuras 4A y 4B son una vista, en perspectiva, y una vista transversal, respectivamente, de otro sistema de formación de imágenes de ejemplo, implementado en un sistema de POS de ejemplo, que tiene un lector de simbología bióptico que muestra un aparato de formación de imágenes 3D interno y que muestra un campo de visión de ese aparato de formación de imágenes 3D. La figura 5 es una vista, en perspectiva, de otro sistema de formación de imágenes de ejemplo, implementado en un sistema de POS de ejemplo, que tiene un lector de simbología bióptico que tiene un aparato de formación de imágenes 2D asociado dentro de un alojamiento de lector y un aparato de formación de imágenes 3D asociado externo al alojamiento de lector. La figura 6 es una vista, en perspectiva, de otro sistema de formación de imágenes de ejemplo que tiene un lector de simbología portátil que tiene un aparato de formación de imágenes 2D y un aparato de formación de imágenes 3D. La figura 7 ilustra un diagrama de bloques de un circuito lógico de ejemplo de una estación de escaneado y un servidor remoto para implementar procedimientos y/u operaciones de ejemplo descritos en la presente memoria, incluyendo los de los sistemas de formación de imágenes de las figuras 1 a 6. La figura 8 es un diagrama de flujo de un proceso de ejemplo como se puede implementar por el circuito lógico de la figura 7, para implementar procedimientos y/u operaciones de ejemplo descritos en la presente memoria, incluyendo técnicas para escaneado de códigos de barras utilizando imágenes 2D y 3D capturadas. La figura 9A ilustra una imagen 2D capturada por un aparato de formación de imágenes 2D de un primer campo de visión. La figura 9B ilustra una parte de una imagen 3D capturada por un aparato de formación de imágenes 3D de un segundo campo de visión. La figura 9C ilustra una imagen 2D mejorada generada por la extracción de características de imagen asociadas con la imagen 3D. La figura 10 es un diagrama de flujo de un proceso de ejemplo como se puede implementar por el circuito lógico de la figura 7, para implementar procedimientos y/u operaciones de ejemplo descritos en la presente memoria, incluyendo técnicas para procesar datos utilizando imágenes 2D y 3D capturadas. La figura 11A ilustra una imagen 3D capturada por un aparato de formación de imágenes 3D de un primer campo de visión. La figura 11B ilustra una parte de una imagen 2D capturada por un aparato de formación de imágenes 2D de un segundo campo de visión. La figura 11C ilustra una imagen 3D mejorada generada por la extracción de características de imagen asociadas con la imagen 2D. La figura 12 es un diagrama de flujo de un proceso de ejemplo como se puede implementar por el circuito lógico de la figura 7, para implementar procedimientos y/u operaciones de ejemplo descritos en la presente memoria, incluyendo técnicas para identificar un escaneado apropiado y un escaneado inapropiado utilizando imágenes 2D e imágenes 3D capturadas. La figura 13 es un diagrama de flujo de un proceso de ejemplo como se puede implementar por el circuito lógico de la figura 7, para implementar procedimientos y/u operaciones de ejemplo descritos en la presente memoria, incluyendo técnicas para llevar a cabo reconocimiento facial utilizando imágenes 3D capturadas. La figura 14A ilustra una imagen 3D capturada por un aparato de formación de imágenes 3D de un campo de visión y que muestra una cara a una primera distancia del aparato de formación de imágenes 3D en una estación de escaneado. La figura 14B ilustra una imagen 3D capturada por el aparato de formación de imágenes 3D del campo de visión y que muestra una cara a una segunda distancia del aparato de formación de imágenes 3D en una estación de escaneado. La figura 15 es un diagrama de flujo de un proceso de ejemplo como se puede implementar por el circuito lógico de la figura 7, para implementar procedimientos y/u peraciones de ejemplo descritos en la presente memoria, incluyendo técnicas para llevar a cabo reconocimiento facial utilizando imágenes 2D capturadas. La figura 16 es un diagrama de flujo de un proceso de ejemplo como se puede implementar por el circuito lógico de la figura 7, para implementar procedimientos y/u operaciones de ejemplo descritos en la presente memoria, incluyendo técnicas para llevar a cabo reconocimiento facial utilizando imágenes 3D capturadas. La figura 17 es un diagrama de flujo de otro proceso de ejemplo como se puede implementar por el circuito lógico de la figura 18 en un sistema de visión artificial, para implementar procedimientos y/u operaciones de ejemplo descritos en la presente memoria, incluyendo técnicas para llevar a cabo reconocimiento facial utilizando imágenes 3D capturadas. La figura 18 ilustra un diagrama de bloque de un sistema de visión artificial de ejemplo para implementar procedimientos y/u operaciones de ejemplo descritos en la presente memoria, incluyendo el análisis de visión artificial utilizando imágenes 2D y 3D capturadas. Los expertos en la materia apreciarán que los elementos en las figuras se ilustran por simplicidad y claridad, y no se han dibujado necesariamente a escala. Por ejemplo, las dimensiones de algunos de los elementos en las figuras pueden estar exageradas con respecto a otros elementos para ayudar a mejorar la comprensión de las realizaciones de la presente invención. Los componentes del aparato y del procedimiento se han representado, cuando procede, mediante símbolos convencionales en los dibujos, mostrando solo aquellos detalles concretos que son pertinentes para comprender las realizaciones de la presente invención, con el fin de no oscurecer la invención con detalles que serán muy evidentes para los expertos en la materia que se beneficia de la descripción del presente documento. DESCRIPCIÓN DETALLADA La figura 1 ilustra una vista, en perspectiva, de un sistema de formación de imágenes de ejemplo capaz de implementar operaciones de los procedimientos de ejemplo descritos n la presente memoria, como se pueden representar por los diagramas de flujo de los dibujos que acompañan a esta descripción. En el ejemplo ilustrado, un sistema de formación de imágenes 100 es en la forma de un sistema de punto de venta (POS) , que tiene una estación de trabajo 102 con un mostrador 104, un lector de simbología bióptico (también denominado "bióptico") 106 (que se puede utilizar en los sistemas y procedimientos de detección y prevención de robo, reconocimiento facial, reconocimiento de objetos y autenticación descritos en la presente memoria) , y una primera cámara 107 y una segunda cámara 109, cada una por lo menos parcialmente posicionada dentro de un alojamiento del lector de simbología 106, también denominado en la presente memoria lector de códigos de barras. En los ejemplos de la presente memoria, el lector de simbología 106 se denomina lector de códigos de barras. En los ejemplos de la presente memoria, las cámaras 107 y 109 (así como otras cámaras descritas en otros ejemplos, incluyendo los de las figuras 2 a 4) se pueden denominar conjuntos de adquisición de imagen y se pueden implementar como una cámara en color, una cámara monocromática u otra cámara configurada para obtener imágenes de un objeto. En el ejemplo ilustrado, la cámara 107 está dentro de un alojamiento superior que se extiende verticalmente 114 (también denominado parte superior o parte de torre) del lector de códigos de barras 106, y la cámara 109 está dentro de un alojamiento inferior que se extiende horizontalmente 112 (también denominado parte inferior o parte de plato) . El alojamiento superior 114 está caracterizado por un campo de visión para la cámara 107, que se extiende horizontalmente. El alojamiento inferior 112 está caracterizado por un campo de visión para la cámara 109, que se extiende verticalmente. En algunos ejemplos, cada uno del alojamiento superior 114 y el alojamiento inferior 112 puede tener dos o más campos de visión, por ejemplo, si las cámaras respectivas están configuradas (por ejemplo, a través de reflectores angulares) para tener diferentes campos de visión que se extienden desde zonas de píxeles diferentes del sensor de cámara. En algunos ejemplos, el alojamiento inferior 112 incluye un plato de peso 111, como parte de un conjunto de plato de peso que, en general, incluirá el plato de peso 111 y una balanza configurada para medir el peso de un objeto colocado en una superficie de ejemplo de la parte superior 116, o en alguna parte de la misma. La superficie de esa parte superior 116 se extiende en un primer plano transversal y es generalmente o sustancialmente paralela a una superficie superior de ejemplo 124 de la estación de trabajo 102 que rodea, por lo menos parcialmente, el plato de peso 111. El plato de peso 111 puede ser parte de un conjunto de detección 126 de fuera del plato que incluye un conjunto de emisión de luz de ejemplo 128 y un conjunto de detección de luz de ejemplo 130. En un ejemplo, una fuente de luz (no mostrada por claridad de ilustración) del conjunto de emisión de luz 128 está controlada para emitir uno o varios pulsos de luz, y un sensor de luz (no mostrado por claridad de ilustración) del conjunto de detección de luz 130 captura luz y el conjunto de detección 126 de fuera del plato puede procesar información de detección de luz para detectar cuándo una parte de un elemento, objeto, etc. no está apoyada en, o se extiende sobre un borde del plato de peso 111, como una condición de peso fuera del plato. Por simplicidad, en la presente memoria se describen solo un único conjunto de emisión de luz 128 y solo un único conjunto de detección de luz 130, sin embargo, se entenderá que el conjunto de detección 126 de fuera del plato también puede incluir cualquier número y/o cualesquiera tipos de conjuntos de emisión de luz, y cualquier número y/o cualesquiera tipos de conjuntos de detección de luz se pueden implementar para detectar la condición de peso fuera del plato. Otros lectores de simbología de ejemplo con detección de fuera del plato se analizan haciendo referencia a las figuras 5 a 7. En el ejemplo ilustrado de la figura 1, una de las cámaras 107, 109 es una cámara 2D y la otra de las cámaras es una cámara 3D. Es decir, en varias realizaciones, el alojamiento superior 114 puede incluir una cámara 2D o una cámara 3D, mientras que el alojamiento inferior 112 puede incluir una cámara 3D o una cámara 2D. Aunque las cámaras 107 y 109 se muestran en una configuración de ejemplo cada una en una parte de alojamiento diferente, los sistemas de formación de imágenes de la presente memoria pueden incluir cualquier número de formadores de imágenes alojados en cualquier número de dispositivos diferentes. La figura 2, por ejemplo, ilustra un sistema de formación de imágenes 100' que tiene características similares (y números de referencia iguales) al sistema de formación de imágenes 100 de la figura 1, pero en el que un conjunto 207 de cámaras incluye una cámara 2D 207A y una cámara 3D 207B, cada una dentro de un alojamiento superior 114, sin una cámara independiente en el alojamiento inferior 112. La figura 3 ilustra otro sistema de formación de imágenes 100'' que tiene características similares (y números de referencia iguales) al sistema de formación de imágenes 100 de la figura 1, pero con un conjunto 307 de cámaras que incluye una cámara 2D 307A y una cámara 3D 307B, cada una con un alojamiento inferior 112, sin una cámara independiente en el alojamiento superior 114. Además, aunque las figuras 1 a 3 ilustran lectores de códigos de barras biópticos de ejemplo 106 como el formador de imágenes (mostrando cada figura una configuración de cámaras diferente) , en otros ejemplos, el formador de imágenes puede ser un dispositivo portátil, tal como un lector de códigos de barras portátil, o un formador de imágenes fijo, tal como un lector de códigos de barras mantenido en posición en una base y manejado dentro de lo que se denomina un "modo de presentación". Un ejemplo se muestra en la figura 6, analizada con más detalle a continuación. Volviendo a la figura 1, el alojamiento inferior 112 se puede denominar un plato o una primera parte de alojamiento y el alojamiento superior 114 se puede denominar una torre, elevada, o una segunda parte de alojamiento. El alojamiento inferior 112 incluye una parte superior 116 con una primera ventana ópticamente transmisora 118 posicionada en la misma a lo largo de un plano generalmente horizontal con respecto a la configuración global y a la colocación del lector de códigos de barras 106. La ventana 118 coincide con uno o varios campos de visión de la cámara 109 en el ejemplo de la figura 1, y coincide con uno o varios campos de visión del conjunto 307 de cámaras en el ejemplo de la figura 3. En algunos ejemplos, la parte superior 116 incluye un plato extraíble o no extraíble (por ejemplo, un plato de pesaje) . El alojamiento superior 114 incluye una segunda ventana ópticamente transmisora 120 posicionada a lo largo de un plano generalmente vertical y que coincide con uno o varios campos de visión de la cámara 107. En el ejemplo ilustrado de la figura 1, así como en las figuras 2 a 4, el lector de códigos de barras 106 captura imágenes de un objeto, en particular un producto 122, tal como, por ejemplo, una caja, escaneada por un usuario 108, por ejemplo, un cliente o un dependiente de ventas. En algunas implementaciones, el lector de códigos de barras 106 captura estas imágenes del producto 122 a través de una de la primera y la segunda ventanas ópticamente transmisoras 118, 120. Por ejemplo, la captura de imagen se puede realizar posicionando el producto 122 dentro de los campos de visión, FOV, de los uno o varios sensores de imágenes digitales alojados dentro del lector de códigos de barras 106. El lector de códigos de barras 106 captura imágenes a través de estas ventanas 118, 120 de modo que un código de barras 124 asociado con el producto 122 se lee digitalmente a través de por lo menos una de la primera y la segunda ventanas ópticamente transmisoras 118, 120. Además, en algunos ejemplos, un gráfico 126 en el producto también se puede analizar digitalmente a través de imágenes capturadas a través de estas ventanas 118, 120. En configuraciones de ejemplo de la figura 1, la cámara 107 captura imágenes 2D del producto 122 sobre un campo de visión (FOV) de la cámara 107, siendo cada imagen 2D del entorno que aparece dentro de ese FOV. Es decir, en un ejemplo, la cámara 107 es una cámara 2D que captura imágenes 2D y genera datos de imagen 2D que se pueden procesar, por ejemplo, para verificar que el producto 122 escaneado coincide con el código de barras 124 y/o los datos de imagen se pueden utilizar para poblar una base de datos. En configuraciones de ejemplo de la figura 1, la cámara 109 captura imágenes 3D del producto 122 sobre el FOV de la cámara 109, siendo cada imagen 3D del entorno que aparece dentro de ese FOV. Es decir, en un ejemplo, la cámara 109 es una cámara 3D que captura imágenes 3D y genera datos de imagen 3D que se pueden procesar, por ejemplo, para verificar que el producto 122 escaneado coincide con el código de barras 124 y/o los datos de imagen se pueden utilizar para poblar una base de datos. En otros ejemplos, la cámara 107 puede ser una cámara 3D y la cámara 109 puede ser una cámara 2D. Aunque en la figura 2, la cámara 207 incluye una cámara 2D 207A y una cámara 3D 207B dentro del alojamiento superior 114, y en la figura 3, la cámara 307 incluye una cámara 2D 307A y una cámara 3D 307B dentro del alojamiento inferior 112. Para implementar operaciones de las técnicas de detección de objetos de ejemplo de la presente memoria, incluyendo las de las figuras 8 a 16, las imágenes capturadas por las cámaras 2D y por las cámaras 3D en los ejemplos de la presente memoria se pueden utilizar para identificar un objeto (tal como el producto 122) , tal como mediante determinar unos primeros datos de identificación del objeto utilizando imágenes capturadas del objeto y determinar unos segundos datos de identificación del objeto utilizando una simbología en el objeto (tal como el código de barras 124) , y comparar los dos datos de identificación. En algunos ejemplos, las imágenes capturadas por las una o varias cámaras 2D y las una o varias cámaras 3D se utilizan para identificar características de imagen 2D y/o características de imagen 3D, respectivamente, para controlar parámetros asociados con el funcionamiento de un lector de simbología. En algunos ejemplos, las imágenes capturadas por las una o varias cámaras 2D y las una o varias cámaras 3D se utilizan para identificar datos faciales para controlar parámetros asociados con el funcionamiento de un lector de simbología o para autenticar el funcionamiento de un lector de simbología. Capturando y procesando datos de imagen 2D y datos de imagen 3D, los lectores de simbología en varios ejemplos son capaces de procesar datos de magen 2D o 3D mejorados para entrenar un modelo de reconocimiento de objetos con los datos de imagen 3D mejorados, para reconocer un objeto dentro de los datos de imagen mejorados, para identificar una acción llevada a cabo por un usuario del lector de códigos de barras y/o para cambiar por lo menos un parámetro asociado con el lector de simbología, tanto si ese parámetro está asociado con el aparato de formación de imágenes 3D, con el aparato de formación de imágenes 2D o con otro sistema asociado con el lector de simbología. En el ejemplo ilustrado de la figura 1, el sistema de formación de imágenes 100 incluye un servidor remoto 130 acoplado comunicativamente al lector de códigos de barras 106 a través de un enlace de comunicación cableado o inalámbrico. En algunos ejemplos, el servidor remoto 130 está acoplado comunicativamente a una pluralidad de sistemas de formación de imágenes 100 posicionados en un área de cajas de pago de un establecimiento, por ejemplo. En algunos ejemplos, el servidor remoto 130 está implementado como un servidor de gestión de inventario que genera y compara datos de identificación de objetos. En algunos ejemplos, un gestor puede acceder al servidor remoto 130 para supervisar el funcionamiento y el escaneado de producto inapropiado por el sistema de formación de imágenes 100. La figura 4A ilustra otra vista, en perspectiva, de un sistema de formación de imágenes de ejemplo 140 que tiene un lector de simbología 142, con un aparato de formación de imágenes 3D 144, en este ejemplo dentro de una parte de torre 146 del lector de simbología 142. Se muestra de manera similar una parte 148 de plato. Se muestra un FOV 150 que se extiende horizontalmente para el aparato de formación de imágenes 3D 144. El aparato de formación de imágenes 3D 144, al igual que los otros aparatos de formación de imágenes 3D en otros ejemplos de la presente memoria, es capaz de capturar imágenes 3D de un entorno dentro del FOV 150 y, además, determinar la posición de uno o varios objetos en ese campo de visión. Se muestran planos de ejemplo 152, 154 y 156 que representan, cada uno, una distancia diferente desde el aparato de formación de imágenes 3D 144. Por tanto, los objetos y las distancias de objeto se pueden identificar en las imágenes 3D y almacenarse en los datos de imagen 3D generados por el aparato de formación de imágenes 3D 144. En particular, tal como se analiza con más detalle en la presente memoria, el tipo de objeto (por ejemplo, un producto a escanear, una mano de operario o una cara humana) se puede identificar a partir de los datos de imagen 3D y la ubicación de ese objeto se puede determinar para controlar el funcionamiento del lector de simbología 142. Por ejemplo, en algunos jemplos, el lector de simbología 142 se puede controlar para capturar una imagen 2D para la lectura de códigos de barras solo cuando se ha identificado un objeto de un tipo determinado o cuando se identifica que un objeto de un tipo determinado está dentro de una distancia del lector de simbología 142, tal como entre el aparato de formación de imágenes 3D 144 y la distancia establecida por el plano 154. Los objetos más lejanos que el plano 154 (tal como los objetos en el plano 156) se pueden ignorar y no escanearse, por ejemplo. De manera similar, los objetos más cercanos que el plano 152 se pueden ignorar o se pueden escanear utilizando un conjunto de iluminación diferente o ajustando un plano de enfoque de un aparato de formación de imágenes 2D. En algunos ejemplos, la distancia de objetos que aparecen dentro de un entorno se puede utilizar para segmentar determinados objetos a partir de los datos de imagen 3D para aumentar la precisión de escaneado o para generar imágenes de entrenamiento para un modelo de reconocimiento de objetos. Se describen otros ejemplos. La figura 4B es una vista transversal del sistema de formación de imágenes 140 mostrando el lector de simbología 142 que tiene un conjunto de detección 158 de fuera del plato, que puede representar dos conjuntos de detección de fuera del plato, uno en cada borde longitudinal externo del sistema de formación de imágenes 140. Para proporcionar detección de fuera del plato, un conjunto de emisión de luz 160 puede estar dispuesto acoplado a un controlador 162 del lector de simbología 142, donde el controlador 162 puede estar configurado para hacer funcionar el conjunto de detección 158 de fuera del plato en varios modos. Por ejemplo, en un primer modo de funcionamiento, el controlador 162 puede enviar una instrucción al conjunto de emisión de luz 160 para emitir un haz de luz colimado 164 de forma continua, lo que proporcionaría una indicación de un evento de fuera del plato cada vez que no se ilumine uno de una barrera de difusión de luz 166. En un segundo modo de funcionamiento, el controlador 162 también puede estar acoplado operativamente al plato de peso 168 y enviar una instrucción al conjunto de emisión de luz 160 para que no emita haz de luz colimado 164 hasta que el controlador 162 detecte un objeto en el plato de peso 168 y se haya asentado el peso medido del objeto. Una vez que se ha asentado el peso medido (después de un período de permanencia positivo) , el controlador 162 puede enviar una instrucción al conjunto de emisión de luz 160 para emitir un haz de luz colimado 164 para permitir a un usuario determinar si hay un evento de fuera del plato y para dejar de emitir un haz de luz colimado 164 una vez que el controlador 162 ha detectado la retirada del objeto del plato de peso 168. Este modo de funcionamiento ahorra energía e impide que la barrera de difusión de luz 166 se ilumine y deje de iluminarse de forma continua cada ez que un objeto que no se va a pesar se pasa sobre el plato de peso 168 para ser escaneado por el lector de simbología 142. En un tercer modo de funcionamiento, el controlador 162 está de nuevo acoplado operativamente al plato de peso 168. Sin embargo, en este modo de funcionamiento, el controlador 162 puede enviar una instrucción al conjunto de emisión de luz 160 para hacer parpadear haz de luz colimado 164 una vez que el controlador 162 detecta un objeto colocado en el plato de peso 168 para proporcionar una alerta y llamar la atención del usuario sobre que se debe comprobar la barrera de difusión de luz 166. El controlador 162 también puede generar un sonido o alerta de notificación para recordar al usuario que compruebe la barrera de difusión de luz 166. Una vez que se ha asentado el peso medido del objeto (después de un período de permanencia positivo) , el controlador 162 envía entonces una instrucción al conjunto de emisión de luz 160 para que detenga el parpadeo de haz de luz colimado 164 y emita haz de luz colimado 164 de forma continua. En algunos ejemplos, el haz de luz colimado 164 es emitido por una fuente de luz 170. El conjunto de emisión de luz 160 también puede incluir una abertura 172, que podría estar formada en una pared o protrusión de un alojamiento o podría estar formada a través de otra pared o estructura que es parte del plato de peso 168, posicionada delante de la fuente de luz 170 para enfocar el haz de luz colimado 164 en un haz estrecho a lo largo de un borde lateral del plato de peso 168. También se puede posicionar una lente 174 delante de la abertura 172 para aumentar la intensidad del haz de luz colimado 164. Tal como se muestra, el aparato de formación de imágenes 3D 144 tiene el FOV 150 que se extiende a lo largo del plato de peso 168 y abarca la barrera de difusión de luz 166 y está en comunicación con el controlador 162. En este ejemplo, el controlador 162 está configurado para recibir imágenes 3D de la cámara 3D 144 e imágenes 2D de una cámara 2D 176 en la parte de torre 146 y/o de una cámara 2D 178 en la parte 148 de plato. En algunas implementaciones, se puede disponer solo una de las cámaras 2D. El controlador 162 puede estar configurado para recibir imágenes de las cámaras 144 y 176/178 y, basándose en las imágenes recibidas, llevar a cabo varias operaciones descritas en la presente memoria, tales como, por ejemplo, ajustar uno o varios parámetros de funcionamiento del lector de simbología 142. El controlador 162 puede determinar, adicionalmente, si la barrera de difusión de luz 166 parece estar iluminada o parece no estar iluminada, a partir de imágenes 3D capturadas por la cámara 144 o de imágenes 2D capturadas por la cámara 176. Si el controlador 162 determina que la barrera de difusión de luz 166 parece estar iluminada, el controlador 162 permitirá que el eso medido de un objeto en el plato de peso 168 sea registrado por un sistema huésped acoplado operativamente al controlador 162. Si el controlador 162 determina que la barrera de difusión de luz 166 parece no estar iluminada, el controlador 162 impedirá que el peso medido del objeto sea registrado por el sistema huésped y/o puede proporcionar al usuario una alerta de que hay un evento de fuera del plato. La figura 5 ilustra una implementación alternativa del sistema de formación de imágenes 140 de las figuras 4A y 4B, designado como 140' y que utiliza números de referencia iguales para elementos iguales. En contraste con el sistema de formación de imágenes 140 en el que el aparato de formación de imágenes 3D 144 era interno al lector de simbología 142, en el sistema de formación de imágenes 140' el aparato de formación de imágenes 3D 144' todavía está asociado con el lector de simbología 142 pero es externo al mismo y está en una posición cenital con un FOV 150' vertical que se extiende hacia abajo. En el ejemplo mostrado, el conjunto de formación de imágenes 3D 144' está dentro de un sistema de cámaras cenital mostrado ubicado en un poste de cuello de cisne 180 que se extiende desde la parte posterior del alojamiento del lector de simbología. Sin embargo, el sistema de cámaras cenital con el conjunto de formación de imágenes 3D 144' podría estar situado en cualquier lugar sobre el alojamiento del lector de simbología 142. Por ejemplo, el sistema de cámaras cenital podría estar situado en un techo sobre el lector de simbología 142 y mirar desde arriba al lector de simbología 142, tal como las cámaras de seguridad que se utilizan con algunos sistemas de punto de venta. En algunos ejemplos, un único sistema de cámaras cenital con uno o varios aparatos de formación de imágenes 3D puede mirar desde arriba a uno o varios sistemas de formación de imágenes. La figura 6 ilustra otro sistema de formación de imágenes de ejemplo capaz de implementar operaciones de los procedimientos de ejemplo descritos en la presente memoria, como se puede representar mediante los diagramas de flujo de los dibujos que acompañan a esta descripción. En el ejemplo ilustrado, un sistema de formación de imágenes 200 incluye un lector de simbología en la forma de un lector de códigos de barras 202 portátil o de presentación que se puede utilizar en la formación de imágenes de objetos y en otros procedimientos descritos en la presente memoria. En el ejemplo ilustrado, el lector de códigos de barras 202 puede incluir un lector portátil 204 y una base estacionaria 206 montada en una superficie de estación de trabajo 208. En el ejemplo ilustrado, el lector portátil 204 se apoya en la base estacionaria para establecer un modo de escaneado de manos libres, también denominado un modo de presentación, para scanear objetos. Por lo tanto, el lector portátil 204 funciona como un lector de imágenes, con una ventana de escaneado 210 en el alojamiento del lector portátil 204, detrás de la cual hay un conjunto 212 de cámaras y, opcionalmente, un conjunto de iluminación 211 (que puede representar una o varias fuentes de iluminación diferentes, tales como una fuente de iluminación directa y una fuente de iluminación difusa para capturar imágenes 2D y/o 3D) . En el modo de escaneado de manos libres, el lector portátil 204 define un FOV 214 que tiene un eje central 215. Según las técnicas de la presente memoria, el lector portátil 204 captura imágenes de un objeto para identificación y formación de imágenes dentro del FOV 214. En algunos ejemplos, se puede utilizar un activador 216 para iniciar un modo de escaneado de manos libres. En algunos ejemplos, el modo de escaneado de manos libres se inicia por colocación del lector 204 en la base 206. En el ejemplo ilustrado, el conjunto 212 de cámaras incluye una cámara 2D 212A para capturar imágenes 2D de un objeto en el FOV 314 y generar datos de imagen 2D. El conjunto 212 de cámaras incluye, además, una cámara 3D 212B para capturar imágenes 3D de un objeto en el FOV 314 y generar datos de imagen 3D. Aunque el FOV 314 puede ser para cada una de las cámaras 212A y 212B, en otros ejemplos, cada una de las cámaras 212A y 212B puede tener un FOV diferente, ya sean parcialmente superpuestos o no superpuestos. En algunos ejemplos, el FOV 314 puede incluir una primera parte correspondiente a la cámara 2D 212A y una segunda parte correspondiente a la cámara 3D 212B. La figura 7 ilustra un sistema de ejemplo donde se pueden implementar realizaciones de la presente invención. En el presente ejemplo, el entorno está dispuesto en la forma de un establecimiento que tiene una o varias ubicaciones de escaneado 300, correspondientes a un sistema de formación de imágenes, tal como los sistemas de formación de imágenes 100, 100', 100'', 140, 140' y 200 de 1, 2, 3, 4A, 4B, 5 y 6, respectivamente, donde varios objetos se pueden escanear para completar una compra de un objeto, para una detección de objeto inapropiada para anular un intento de compra inapropiado, y otros propósitos de la presente memoria. En un ejemplo, la ubicación de escaneado 300 es una ubicación de punto de venta e incluye una estación de escaneado 302 que tiene un lector de simbología 304, tal como un lector de códigos de barras bióptico como el lector de códigos de barras 106 en las figuras 1 a 5 y el lector de códigos de barras portátil 202 en la figura 6. El lector de simbología 304 puede incluir un escáner, tal como un escáner de códigos de barras, y ualquier tipo adicional de lector de simbología, tal como un lector de etiquetas RFID. En el ejemplo de la figura 1, el lector de simbología 304 también se describe como un lector 304, por motivos de conveniencia, aunque se pretende incluir cualquier tipo de lector de simbología. En otro ejemplo, la ubicación de escaneado es una ubicación de visión artificial y la estación de escaneado 302 es un sistema de visión artificial que tiene un aparato de formación de imágenes 2D y un aparato de formación de imágenes 3D y está configurado para llevar a cabo procesos tales como los descritos en referencia a la figura 11 y en el resto de la presente memoria. El lector 304 incluye un dispositivo de formación de imágenes 306 (por ejemplo, un conjunto de formación de imágenes en la forma de un conjunto 306 de cámaras u otro dispositivo de fotodetección) y uno o varios sensores 308. El conjunto 306 de cámaras incluye una cámara 2D 310 y una cámara 3D 312 para capturar imágenes respectivas y generar datos de imagen respectivos, según las técnicas descritas en la presente memoria. Tal como se analiza en varios ejemplos de la presente memoria, la cámara 2D 310 y la cámara 3D 312 están asociadas con el lector de simbología 304 y pueden estar dentro de un alojamiento del mismo o ser externas a un alojamiento pero estar acopladas al lector de simbología 304 a través de un enlace de comunicación cableado o inalámbrico. En algunos ejemplos, el lector 304 puede ser un escáner de imagen de código de barras capaz de escanear un código de barras 1D, un código QR, un código de barras 3D, u otra simbología como los signos 314, así como capturar imágenes del propio objeto 316. En el ejemplo ilustrado, la estación de escaneado 304 incluye sensores 308, que pueden incluir un transpondedor de RFID para capturar datos de signos en la forma de una señal electromagnética capturada a partir de los signos 314 cuando los signos 314 son una etiqueta RFID, en lugar de signos visuales, tales como un código de barras. El lector 304 incluye, además, un procesador de imagen 318 y un descodificador de signos 320. En algunos ejemplos, el procesador de imagen 318 es un procesador de datos de imagen 2D y un procesador de datos de imagen 3D, capaz de procesar datos de imagen en color, datos de imagen de nube de puntos y similares de un objeto. El procesador de imagen 318 puede estar configurado para analizar imágenes capturadas del objeto 316 y llevar a cabo un procesamiento de imagen preliminar, por ejemplo, antes de que las imágenes 2D y 3D y los datos de imagen se envíen a un ervidor remoto 350 mediante una red 324. El lector 304 incluye una interfaz 326 de red que representa cualquier tipo adecuado de interfaz o interfaces de comunicación (por ejemplo, interfaces cableadas y/o inalámbricas) configuradas para funcionar según cualesquiera de uno o varios protocolos adecuados para comunicar sobre la red 324. En el ejemplo de un lector de códigos de barras bióptico, el lector de simbología 304 incluye un conjunto de detección 321 de fuera del plato que puede incluir un conjunto de emisión de luz y un conjunto de detección de luz, diferente del conjunto 306 de cámaras. En el ejemplo ilustrado, el lector 304 incluye una plataforma de procesamiento 323 que tiene un procesador 328, tal como, por ejemplo, uno o varios microprocesadores, controladores y/o cualquier tipo adecuado de procesador. La plataforma de procesamiento 323 incluye, además, una memoria 330 (por ejemplo, memoria volátil, memoria no volátil) accesible por el procesador 328 (por ejemplo, mediante un controlador de memoria) . El procesador de ejemplo 328 interactúa con la memoria 330 para obtener, por ejemplo, instrucciones legibles por máquina almacenadas en la memoria 330 correspondientes a, por ejemplo, las operaciones representadas por los diagramas de flujo de esta invención, incluyendo los de las figuras 8, 10, 12, 13, 15 y 16. Adicional o alternativamente, las instrucciones legibles por máquina correspondientes a las operaciones de ejemplo descritas en la presente memoria se pueden almacenar en uno o varios medios extraíbles (por ejemplo, un disco compacto, un disco versátil digital, una memoria flash extraíble, etc.) que pueden estar acoplados al lector 304 para proporcionar acceso a las instrucciones legibles por máquina almacenadas en los mismos. El procesador 328 puede ser un procesador programable, un controlador programable, una unidad de procesamiento de gráficos (GPU, Graphics Processing Unit) , un procesador de señales digitales (DSP, Digital Signal Processor) , etc. Alternativamente, un circuito integrado de aplicaciones específicas (ASIC, Application Specific Integrated Circuit) , un dispositivo lógico programable (PLD, Programmable Logic Device) , una matriz de puertas programable in situ (FPGA, Field Programmable Gate Array) , un dispositivo lógico programable in situ (FPLD, Field Programmable Logic Device) , un circuito lógico, etc. pueden estar estructurados o configurados para implementar el procesador 328. La memoria de ejemplo 330 incluye cualquier número o cualesquiera tipos de medio o disco de almacenamiento no transitorio legible por ordenador, tal como una unidad de disco duro (HDD, Hard Disk Drive) , una unidad de almacenamiento óptico, un dispositivo de lmacenamiento de estado sólido, una unidad de estado sólido (SSD, Solid-State Drive) , una memoria de solo lectura (ROM, Read-Only Memor y ) , una memoria de acceso aleatorio (RAM, Random-Access Memor y ) , un disco compacto (CD, Compact Disc) , una memoria de solo lectura de disco compacto (CD-ROM, Compact Disc Read-Only Memor y ) , un disco versátil digital (DVD, Digital Versatile Disk) , un disco Blu-Ray, una caché, una memoria flash, o cualquier otro dispositivo de almacenamiento o disco de almacenamiento en el que la información se puede almacenar durante cualquier duración (por ejemplo, permanentemente, durante un período de tiempo prolongado, durante un breve instante, para un almacenamiento intermedio temporal, para un almacenamiento en caché de la información, etc.) . El lector 304 de la figura 7 también incluye interfaces de entrada/salida (E/S) 332 para permitir la recepción de entrada de usuario y la comunicación de datos de salida al usuario, un dispositivo de entrada 334 para recibir entrada del usuario, y un dispositivo de pantalla 336 para mostrar datos, alarmas y otras indicaciones a un usuario. En el ejemplo ilustrado, las interfaces de E/S 332 son parte de la plataforma de procesamiento 323 junto con la interfaz 326 de red. Aunque la figura 7 representa las interfaces de E/S 332 como un único bloque, las interfaces de E/S 332 pueden incluir un número de tipos diferentes de circuitos o componentes de E/S que permiten que el procesador 328 se comunique con dispositivos de E/S periféricos. Las interfaces 332 de ejemplo incluyen una interfaz Ethernet, un bus serie universal (USB) , una interfaz Bluetooth®, una interfaz de comunicación de campo cercano (NFC, Near Field Communication) y/o una interfaz de PCI Express. Los dispositivos de E/S periféricos pueden ser cualquier tipo deseado de dispositivo de E/S, tales como un teclado, una pantalla (una pantalla de cristal líquido (LCD, Liquid Cr y stal Display) , una pantalla de tubo de rayos catódicos (CRT, Cathode Ray Tube) , una pantalla de diodos de emisión de luz (LED, Light Emitting Diode) , una pantalla de diodos orgánicos de emisión de luz (OLED, Organic Light Emitting Diode) , una pantalla de conmutación en el plano (IPS, In-Plane Switching) , una pantalla táctil, etc.) , un dispositivo de navegación (un ratón, una bola de seguimiento, un panel táctil capacitivo, una palanca de mando, etc.) , un altavoz, un micrófono, una impresora, un botón, una interfaz de comunicación, una antena, etc. Para llevar a cabo la identificación de signos, en algunos ejemplos, el procesador de imagen 318 está configurado para identificar los signos 314 capturados en una imagen 2D, por ejemplo, llevando a cabo detección de bordes y/o reconocimiento de patrones, y el descodificador de signos 320 descodifica los signos y genera datos de identificación el objeto correspondientes a los signos 314. En algunos ejemplos, el procesador de imagen 318 está configurado, además, para capturar imágenes del objeto 316 y determinar otros datos de identificación del objeto basándose en características en los datos de imagen 2D, los datos de imagen 3D o una combinación de los mismos. Por ejemplo, en algunos ejemplos, el procesador de imagen 318 identifica características de imagen del objeto 316 capturadas en los datos de imagen 2D. Las características de imagen de ejemplo incluyen la forma periférica del objeto, el tamaño aproximado del objeto, un tamaño de la parte de envase del objeto, un tamaño de un producto dentro de un envase (por ejemplo, en el caso de una carne o producto envasado) , una diferencia de tamaño relativa entre un tamaño del producto y un tamaño del envase, un color del objeto, envase y/o mercancía, imágenes en el objeto, texto en el objeto, pasillo del punto de venta e ID de tienda desde donde fue escaneado el elemento, forma del producto, peso del producto, variedad del producto, especialmente para frutas, y frescura del producto. Las características de imagen identificadas por el procesador de imagen 318 se pueden categorizar en características de imagen derivadas de datos de imagen 2D capturados por la cámara 2D 310 y características de imagen derivadas de datos de imagen 3D capturados por la cámara 3D 312. El procesador de imagen 318 puede enviar estas características de imagen dentro de los datos de escaneado de imagen al servidor remoto 350. En algunos ejemplos, el procesador de imagen 318 está configurado para identificar una o varias características de imagen 3D en los datos de imagen 3D capturados e identificar una o varias características de imagen 2D en los datos de imagen 2D capturados. Los datos de imagen 3D pueden ser datos de nube de puntos y las características de imagen 3D pueden incluir datos de color para objetos, datos de gradiente de color para objetos, datos de forma para objetos, datos de dimensión para objetos, datos de distancia para objetos con respecto a otros objetos o con respecto al lector de simbología o con respecto a la cámara 3D, u otras características 3D. Las características de imagen 2D pueden ser datos de forma para objetos, datos de dimensión para objetos, gráficos en objetos, etiquetas en objetos, texto en objetos u otras características 2D. Aunque en algunos ejemplos las características de imagen 2D y 3D se identifican en el procesador de imagen 318, en otros ejemplos, la determinación de características de imagen 2D y la determinación de características de imagen 3D se llevan a cabo en un gestor 338 de características de imagen que tiene características de imagen 2D almacenadas 340 y características de imagen 3D almacenadas 342. Tanto si las características de imagen 2D y/o las características de imagen 3D se determinan en el procesador de imagen 318 como en el gestor 338 de características de imagen, en varios ejemplos, el lector 304 está configurado para mejorar la descodificación de los signos 314 capturados en datos de imagen 2D utilizando datos de imagen 3D capturados. En varios ejemplos, el lector 304 está configurado para mejorar los datos de imagen 2D y/o el análisis de datos de imagen 2D con datos de imagen 3D. En varios ejemplos, el lector 304 está configurado para mejorar los datos de imagen 3D y/o el análisis de datos de imagen 3D con datos de imagen 2D. En varios ejemplos, el lector 304 está configurado para mejorar los procesos de detección y prevención de robo, reconocimiento facial, reconocimiento de objetos y/o autenticación utilizando tanto los datos de imagen 2D como los datos de imagen 3D. En varios ejemplos, el lector 304 está configurado para llevar a cabo estos procesos (es decir, detección y prevención de robo, reconocimiento facial, reconocimiento de objetos y/o autenticación) utilizando solo datos de imagen 3D capturados por el lector 304. Para llevar a cabo estos y otros procesos según las técnicas de la presente memoria, el gestor 338 de características de imagen puede estar configurado para llevar a cabo procesos como se detallan en las figuras 8 a 16, descritas con más detalle de aquí en adelante. Además, en algunos ejemplos, uno o varios de estos procesos se pueden llevar a cabo en el servidor remoto 350, que puede incluir un gestor 351 de características de imagen configurado para llevar a cabo uno o varios de los procesos descritos en la presente memoria, tales como los detallados en las figuras 8 a 16. En un ejemplo, el servidor remoto 350 es un servidor de procesamiento de imagen e identificación de objetos configurado para recibir imágenes 2D (datos de imagen 2D) e imágenes 3D (datos de imagen 3D) (y, opcionalmente, otros datos de escaneado de imagen, tales como datos de signos descodificados, características físicas, etc.) de la estación de escaneado 302 y llevar a cabo identificación de objetos tal como identificación de objetos y detección de objeto inapropiada y otras técnicas descritas en la presente memoria, incluyendo por lo menos algunos de los procesos descritos haciendo referencia a las figuras 8 a 16. El servidor remoto 350 puede implementar software de servicios empresariales que puede incluir, por ejemplo, servicios de API RESTful (transferencia de estado representacional) , servicio de colas de mensajes y servicios de eventos que pueden ser proporcionados por varias plataformas o especificaciones, tales como la especificación J2EE implementada por cualquiera de la plataforma Oracle WebLogic Server, la plataforma JBoss o la plataforma IBM WebSphere, etc. También se pueden utilizar otras tecnologías o plataformas, tales como Ruby on Rails, Microsoft .NET o similares. El servidor remoto 350 incluye un circuito lógico de ejemplo en la forma de plataforma de procesamiento 352 capaz de, por ejemplo, implementar operaciones de los procedimientos de ejemplo descritos en la presente memoria. La plataforma de procesamiento 352 incluye un procesador 354, tal como, por ejemplo, uno o varios microprocesadores, controladores y/o cualquier tipo adecuado de procesador. La plataforma de procesamiento de ejemplo 352 incluye memoria (por ejemplo, memoria volátil, memoria no volátil) 356 accesible por el procesador 354 (por ejemplo, mediante un controlador de memoria) . El procesador de ejemplo 354 interactúa con la memoria 356 para obtener, por ejemplo, instrucciones legibles por máquina almacenadas en la memoria 356 correspondientes a, por ejemplo, las operaciones representadas por los diagramas de flujo de esta invención. Adicional o alternativamente, las instrucciones legibles por máquina correspondientes a las operaciones de ejemplo descritas en la presente memoria se pueden almacenar en uno o varios medios extraíbles (por ejemplo, un disco compacto, un disco versátil digital, una memoria flash extraíble, etc.) que pueden estar acoplados a la plataforma de procesamiento 352 para proporcionar acceso a las instrucciones legibles por máquina almacenadas en los mismos. La plataforma de procesamiento de ejemplo 352 también incluye una interfaz 358 de red para permitir la comunicación con otras máquinas mediante, por ejemplo, una o varias redes, incluyendo la estación de escaneado 302. La interfaz de red de ejemplo 358 incluye cualquier tipo adecuado de interfaz o interfaces de comunicación (por ejemplo, interfaces cableadas y/o inalámbricas) configuradas para funcionar según cualesquiera de uno o varios protocolos adecuados, así como la interfaz 326 de red. La plataforma de procesamiento de ejemplo 352 también incluye interfaces de entrada/salida (E/S) 360 para permitir la recepción de entrada de usuario y la comunicación de datos de salida al usuario, de manera similar a las de la interfaz de E/S 332. En algunos ejemplos, el servidor remoto 350 puede ser, o puede contener, un servidor de clasificación. Así pues, en el ejemplo ilustrado, el servidor remoto 350 incluye, en una estructura 362 de red neuronal configurada para desarrollar una red neuronal entrenada 364 y para utilizar esa red neuronal entrenada para recibir imágenes 2D y 3D capturadas por el lector de simbología 304, identificar objetos dentro de las imágenes recibidas, y clasificar esos objetos. La estructura 362 de red neuronal, por ejemplo, puede estar configurada como una red neuronal convolucional que emplea un clasificador de múltiples capas para valorar características de imagen identificadas y generar clasificadores para la red neuronal entrenada 364. La red neuronal entrenada 364 se puede entrenar para clasificar objetos en datos de imagen 2D y/o 3D recibidos, por tipo de objeto, superficie de escaneado del objeto, si el objeto es una pantalla de visualización tal como una pantalla de dispositivo móvil, reflectividad del objeto y/o tipo de signos en el objeto. A modo de ejemplo, la red neuronal entrenada 364 se puede entrenar utilizando imágenes 2D, datos de imagen 2D mejorados con datos de imagen 3D, datos de imagen 3D y/o datos de imagen 3D mejorados con datos de imagen 2D. De estas formas, por medio de la estructura 362 y de la red neuronal entrenada 364, en varios ejemplos, las presentes técnicas despliegan uno o varios modelos de predicción entrenados para valorar imágenes 2D y/o 3D de un objeto (con o sin signos) recibidas y clasificar esas imágenes para determinar un objeto y una clasificación de objeto, para identificar ajustes de configuración contextuales a utilizar en la operación de la estación de escaneado 302 o en otros dispositivos de formación de imágenes. A partir de las clasificaciones determinadas, en varios ejemplos, las presentes técnicas utilizan una clasificación del objeto para determinar ajustes para ajustes de configuración del escáner de formación de imágenes. Es decir, un modelo de predicción se entrena utilizando la estructura 362 de red neuronal y, así pues, ese modelo de predicción se denomina en la presente memoria "red neuronal" o "red neuronal entrenada". La red neuronal de la presente memoria se puede configurar de diversas formas. En algunos ejemplos, la red neuronal puede ser una red neuronal profunda y/o una red neuronal convolucional (CNN, Convolutional Neural Network) . En algunos ejemplos, la red neuronal puede ser una red neuronal distribuida y escalable. La red neuronal se puede personalizar de varias maneras, incluyendo disponer una capa superior específica tal como, de forma no limitativa, una capa superior de regresión de logística. Una red eurona! convolucional se puede considerar como una red neurona! que contiene conjuntos de nodos con parámetros vinculados. Se puede considerar que una red neuronal convolucional profunda tiene una estructura apilada con una pluralidad de capas. En ejemplos de la presente memoria, la red neuronal se describe teniendo múltiples capas, es decir, múltiples capas apiladas, sin embargo, se puede utilizar cualquier configuración adecuada de red neuronal. Las CNN, por ejemplo, son un tipo de modelo predictivo de aprendizaje de máquina que son particularmente útiles para reconocimiento y clasificación de imágenes. Por ejemplo, en las realizaciones a modo de ejemplo de la presente memoria, las CNN pueden funcionar sobre imágenes 2D o 3D, donde, por ejemplo, dichas imágenes se representan como una matriz de valores de píxeles dentro de los datos de escaneado de imagen. Tal como se describe, la red neuronal (por ejemplo, las CNN) se puede utilizar para determinar una o varias clasificaciones para una imagen determinada pasando la imagen a través de la serie de capas operativas computacionales. Entrenando y utilizando estas varias capas, el modelo de CNN puede determinar una probabilidad de que una imagen (o uno o varios objetos dentro de una imagen) o características de imagen físicas pertenezcan a una clase particular. Los modelos de CNN entrenados se pueden hacer persistir para restauración y utilización, y refinarse mediante entrenamiento adicional. Los modelos entrenados pueden residir en medios de almacenamiento volátiles o no volátiles de cualquier ordenador en las instalaciones, tales como RAM, almacenamiento flash, disco duro o almacenamiento similar alojado en servidores en la nube. En la figura 8, se muestra un diagrama de flujo de un proceso de ejemplo 400 para lectura de simbología utilizando imágenes 2D capturadas e imágenes 3D capturadas, como puede llevar a cabo la estación de escaneado 302 de la figura 7 y cualquiera de los sistemas de formación de imágenes 100, 100', 100'', 140, 140' y 200 de 1, 2, 3, 4A, 4B, 5 y 6, respectivamente. En un bloque 402, un lector de simbología de un sistema de formación de imágenes captura una o varias imágenes 2D a través de un aparato de formación de imágenes 2D del lector de simbología. En particular, las imágenes 2D se capturan sobre un primer entorno dentro de un FOV, donde ese primer entorno puede ser de un FOV que se extiende horizontalmente de una parte superior de un lector bióptico, de un FOV que se extiende verticalmente de una parte inferior de un lector bióptico, de un FOV de un lector de simbología portátil, u otro ejemplo. En un bloque 404, un aparato de formación de imágenes 3D del lector de simbología captura una o varias imágenes 3D de otro entorno de un segundo FOV correspondiente al aparato de formación de imágenes 3D. El FOV del aparato de formación de imágenes 3D puede ser desde una parte superior o una parte inferior del lector bióptico o desde un aparato de formación de imágenes 3D posicionado externamente asociado con un lector de simbología, tal como desde un FOV cenital que se extiende hacia abajo o desde una vista lateral apuntando hacia el lector de simbología. El FOV puede ser el de un aparato de formación de imágenes 3D en un lector de simbología portátil. En cualquier caso, en algunos ejemplos, el aparato de formación de imágenes 2D y el aparato de formación de imágenes 3D tienen FOV diferentes que se superponen parcialmente. En algunos ejemplos, los FOV del aparato de formación de imágenes 2D y del aparato de formación de imágenes 3D son iguales. En algunos ejemplos, se pueden utilizar múltiples aparatos/conjuntos de formación de imágenes 2D para capturar imágenes 2D, tales como los aparatos de formación de imágenes 2D en cada una de una parte superior y una parte inferior de un lector de simbología. En un bloque 406, el sistema de formación de imágenes analiza datos de imagen 3D e identifica características de imagen 3D dentro del entorno capturado en el FOV del aparato de formación de imágenes 3D. Por ejemplo, los datos de imagen 3D pueden ser datos de nube de puntos 3D, y las características de imagen 3D pueden ser una o varias características geométricas de un objeto presentado dentro del FOV y/o un color o una gradación de color correspondiente a un objeto dentro del FOV. En algunos ejemplos, identificar características de imagen 3D incluye identificar las una o varias características de imagen 3D que están posicionadas dentro de un intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D. En el sistema de formación de imágenes 140 de la figura 4A, por ejemplo, el aparato de formación de imágenes 3D 144 puede estar configurado para detectar uno o varios objetos capturados en una imagen 3D del FOV 150, determinar la distancia de los uno o varios objetos, y determinar si objetos relevantes están más allá de una distancia máxima determinada, tal como el plano de distancia 156. En el ejemplo de un lector de códigos de barras bióptico que tiene una zona de escaneado de producto, el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se puede extender desde el aparato de formación de imágenes 3D hasta un límite distal de la zona de escaneado de producto, por ejemplo, el plano de distancia 156. En algunos ejemplos, las características de imagen 3D incluyen por lo menos una de (i) por lo menos una parte de la mano del operario, y (ii) un objeto agarrado por la mano del operario. En el ejemplo de un lector de códigos de barras estacionario configurado para ser posicionado dentro de una estación de trabajo y manejado por el operario, tal como un lector de códigos de barras portátil como el de la figura 6, el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se puede extender desde el aparato de formación de imágenes 3D hasta un borde de la estación de trabajo próximo al operario. En un bloque 408, habiendo analizado los datos de imagen 3D e identificado características de imagen 3D, el sistema de formación de imágenes mejora los datos de imagen 2D correlacionando las características de imagen 3D identificadas con características de imagen 2D identificadas a partir de los datos de imagen 2D de las imágenes 2D capturadas en el entorno del FOV del aparato de formación de imágenes 2D. Por ejemplo, mejorar los datos de imagen 2D puede incluir filtrar una o varias características de imagen 2D de modo que procesar los datos de imagen 2D mejorados excluye procesar datos de imagen asociados con las por lo menos una o varias características de imagen 2D. En algunos ejemplos, mejorar los datos de imagen 2D incluye, además, filtrar las una o varias características de imagen 2D de modo que procesar los datos de imagen 2D mejorados se limita a procesar datos de imagen asociados con las por lo menos una o varias características de imagen 2D. De estas formas, las características de imagen 3D se pueden utilizar para mejorar el procesamiento de imágenes 2D, eliminando el procesamiento de características de imagen 2D determinadas como no valiosas para el procesamiento y/o identificando características de imagen 2D que son valiosas para el procesamiento. Para ilustrar un ejemplo, la figura 9A ilustra una imagen 2D de un primer entorno de un FOV capturado por un conjunto de formación de imágenes 2D de un sistema de formación de imágenes, en este ejemplo desde la parte superior del sistema de formación de imágenes. La imagen 2D incluye un código de barras 450 asociado con un objetivo 452. La imagen 2D contiene más que el objetivo 452 y el código de barras 450. La imagen 2D incluye un dependiente 454 y objetos en segundo plano (por ejemplo, silla 456 y persona 458) . Para mejorar el análisis de la imagen 2D en el ejemplo de la figura 9A, el bloque 406 utiliza datos de imagen 3D de una imagen 3D capturada sobre un FOV para un aparato de formación de imágenes 3D. Por ejemplo, se pueden determinar características de magen 3D correspondientes a los objetos 452 a 458, tales como la distancia de cada uno de los objetos desde un lector de simbología. El FOV de la imagen 3D puede ser desde una parte superior o una parte inferior de un lector bióptico o desde una posición externa asociada, tal como cenital. Por ejemplo, en el bloque 406, se puede determinar la distancia del objetivo 452, del dependiente 454, de la silla 456 y de la persona 458. Además, en el bloque 406, se puede determinar cuáles de los objetos están dentro de una distancia de escaneado permitida para un lector de simbología y cuáles no, de modo que los últimos se pueden eliminar. Con fines ilustrativos, la figura 9B muestra una parte de ejemplo de una imagen 3D donde se identifica que la silla 456 y la persona 458 están fuera de una distancia de escaneado permitida, lo que el aparato de formación de imágenes 3D puede determinar a partir de datos de nube de puntos 3D y determinando características de imagen 3D que incluyen figuras geométricas que identifican la forma del objeto y la distancia del objeto. En algunos ejemplos, las características de imagen 3D pueden ser un color o una gradación de color utilizados para identificar diferentes objetos en la imagen 3D. En algunos ejemplos, las características de imagen 3D incluyen por lo menos una parte de una mano del operario y un objeto agarrado por la mano del operario. En algunos ejemplos, las características de imagen 3D identificadas se pueden enviar a una red neuronal entrenada, que tiene uno o varios modelos de reconocimiento de objetos entrenados, para la identificación del objeto. Los modelos de reconocimiento de objetos se pueden entrenar para identificar diferentes objetos, tanto si están dentro como fuera de una distancia de escaneado permitida. Con los datos de distancia determinados a partir de las características de imagen 3D, la imagen 2D de la figura 9A se puede convertir en una imagen 2D mejorada como en la figura 9C, en el bloque 408, mediante, en un ejemplo, eliminar las imágenes 2D objetos que tengan distancias fuera de una distancia de escaneado permitida, también denominada un intervalo de distancia predeterminado de una zona de escaneado de producto en la presente memoria. Por ejemplo, un intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se puede extender desde el aparato de formación de imágenes 3D hasta un límite distal de la zona de escaneado de producto o hasta un borde de una estación de trabajo próximo al operario o hasta un difusor de un conjunto de detección de fuera del plato. Por ejemplo, en la imagen 2D mejorada de la figura 9C se han eliminado la silla 456 y la persona 458. En algunos ejemplos, el bloque 408 compara características de imagen 2D identificadas determinadas a partir de imágenes 2D y características de imagen 3D dentificadas determinadas a partir de imágenes 3D para identificar objetos para su análisis. El bloque 408 puede mejorar los datos de imagen 2D de modo que determinados datos de imagen (por ejemplo, uno o varios objetos) se excluyen del procesamiento adicional en el bloque 410 o de modo que el procesamiento de imagen se limita a determinados datos de imagen. Se pueden favorecer varios procesamientos como resultado de generar datos de imagen 2D mejorados, incluyendo, como se muestra en el bloque 410, descodificar códigos de barras capturados dentro de los datos de imagen 2D mejorados (tal como una descodificación más rápida y precisa del código de barras 450) , entrenar modelos de reconocimiento de objetos tales como los de la red neuronal entrenada 364 utilizando los datos de imagen 2D mejorados, llevar a cabo reconocimiento de objetos utilizando los datos de imagen 2D mejorados, identificar una acción llevada a cabo por un operario utilizando los datos de imagen 2D mejorados, o cambiar uno o varios parámetros asociados con el funcionamiento del lector de códigos de barras. Por ejemplo, en el bloque 410, la acción llevada a cabo por el operario se puede identificar como una de presentar un objeto dentro de una zona de escaneado de producto y presentar el objeto próximo a la zona de escaneado de producto. Con los datos de imagen 2D mejorados, el bloque 410 puede, en respuesta a que no se detecta ningún código de barras dentro de por lo menos uno de los datos de imagen 2D y los datos de imagen 2D mejorados, generar una alerta adecuada para señalizar un potencial evento de robo. En el ejemplo de la figura 9A, si el aparato de formación de imágenes 2D determina que el objetivo 452 está presente en los datos de imagen 2D y está dentro de una distancia de escaneado permitida (por ejemplo, una zona de escaneado de producto) , como se determina a partir de las características de imagen 3D, pero que el código de barras 450 no está presente, está parcialmente cubierto o no visible, o completamente cubierto o no visible, y, por tanto, no es completamente descodificable, entonces el bloque 410 puede identificar que un operario está intentando un escaneado de producto, y el bloque 410 puede generar una señal de alarma u otra indicación adecuada para señalizar un potencial evento de robo. En algunos ejemplos, el bloque 410, en respuesta a analizar los datos de imagen 2D utilizando las características de imagen 3D, puede ajustar uno o varios parámetros sociados con el funcionamiento del lector de simbología. Las características de ejemplo incluyen un tiempo de exposición del lector de simbología, una duración de pulso de iluminación del lector de simbología, una posición de foco del lector de simbología, un nivel de ampliación de imágenes del lector de simbología y una fuente de iluminación del lector de simbología. Por ejemplo, cuando la posición del objetivo 452 no es detectable a partir de los datos de imagen 2D, la distancia es determinable utilizando características de imagen 3D. Dependiendo de esa distancia, el bloque 410 puede cambiar de una fuente de iluminación directa utilizada para la lectura de códigos de barras a una fuente de iluminación difusa utilizada para lectura de simbología de marcado directo de piezas (DPM, Direct Part Marking) . En algunos ejemplos, el bloque 410 puede ajustar el brillo de un conjunto de iluminación antes de capturar más imágenes 2D. Por ejemplo, si los objetivos están cerca del conjunto de formación de imágenes 3D, entonces se puede utilizar un brillo de iluminación reducido. O, si se identifican objetos tales como datos faciales en las imágenes 3D, entonces el brillo de iluminación se puede reducir o el conjunto de iluminación se puede apagar. Uno o varios aspectos del funcionamiento de procesamiento del bloque 410 se pueden llevar a cabo en la estación de escaneado 302 o en el servidor 350, por ejemplo. En la figura 10, se muestra un diagrama de flujo de un proceso de ejemplo 500 para lectura de simbología utilizando imágenes 2D capturadas e imágenes 3D capturadas, como puede llevar a cabo la estación de escaneado 302 de la figura 7 y cualquiera de los sistemas de formación de imágenes 100, 100', 100'', 140, 140' y 200 de 1, 2, 3, 4A, 4B, 5 y 6, respectivamente. En un bloque 502, similar al bloque 402, un lector de simbología de un sistema de formación de imágenes captura una o varias imágenes 2D a través de un aparato de formación de imágenes 2D del lector de simbología. En particular, las imágenes 2D se capturan sobre un primer entorno dentro de un FOV. En un bloque 504, similar al bloque 404, un aparato de formación de imágenes 3D asociado con el lector de simbología captura una o varias imágenes 3D de otro entorno de un segundo FOV correspondiente al aparato de formación de imágenes 3D. En un bloque 506, el sistema de formación de imágenes analiza datos de imagen 2D e identifica características de imagen 2D dentro del entorno capturado en el FOV del aparato de formación de imágenes 3D. Por ejemplo, los datos de imagen 2D pueden ser datos de imagen monocromática, datos de imagen en escala de grises y datos de imagen polícroma. Las características de imagen 2D pueden ser un código de barras y una o arias características geométricas de un objeto presentado dentro del FOV del aparato de formación de imágenes 2D. En algunos ejemplos, las características de imagen 2D incluyen por lo menos una de (i) por lo menos una parte de una mano del operario, y (ii) un objeto agarrado por la mano del operario, tal como en el ejemplo de la figura 9A, el operario 454 y una mano del operario sujetando el objetivo 452. En algunos ejemplos, identificar características de imagen 2D incluye identificar características del entorno en la imagen 2D, donde estas características del entorno son características en la imagen fuera de un objeto presentado dentro del primer FOV, tal como en el ejemplo de la figura 9A la silla 456 y la persona 458. El bloque 506 puede convertir estas características del entorno en características de máscara configuradas para cubrir las características del entorno identificadas en la imagen 2D e identificar entonces estas características de máscara como una o varias características de imagen 2D. En algunos ejemplos, el bloque 506 identifica características de imagen 2D identificando un código de barras para el objeto en los datos de imagen 2D y descodificando el código de barras para generar datos de carga útil de código de barras. A partir de ahí, el bloque 506 puede determinar la identificación del objeto a partir de los datos de carga útil de código de barras y determinar, a partir de la identificación del objeto, una o varias características de imagen 2D, tales como la forma y/o las dimensiones del objeto. En un bloque 508, habiendo analizado los datos de imagen 2D e identificando características de imagen 3D, el sistema de formación de imágenes mejora los datos de imagen 3D correlacionando las características de imagen 2D identificadas con características de imagen 3D identificadas a partir de los datos de imagen 3D de las una o varias imágenes 3D capturadas en el entorno del FOV del aparato de formación de imágenes 3D. Por ejemplo, mejorar los datos de imagen 3D puede incluir asignar una ubicación del código de barras de los datos de imagen 2D a los datos de imagen 3D. En otro ejemplo, mejorar los datos de imagen 3D puede incluir asignar por lo menos una parte de unos datos de imagen polícroma a los datos de imagen 3D basándose, por lo menos en parte, en las una o varias características geométricas del objeto presentado dentro del FOV del aparato de formación de imágenes 2D. En algunos ejemplos, mejorar los datos de imagen 3D puede incluir filtrar una o varias características de imagen 3D de modo que procesar los datos de imagen 3D mejorados excluye procesar datos de imagen asociados con las por lo menos una o varias características de imagen 3D. En algunos ejemplos, mejorar los datos de imagen 3D puede incluir filtrar una o varias características de imagen 3D de modo que procesar los datos de imagen 3D mejorados se limita a procesar datos de imagen asociados con las por lo menos una o varias características de magen 3D. Por ejemplo, los datos de forma y dimensión se pueden determinar a partir de un código de barras descodificado en los datos de imagen 2D y utilizar para identificar un objeto en los datos de imagen 3D correspondiente a esas forma y dimensión. En algunos ejemplos, mejorar los datos de imagen 3D incluye filtrar los datos de imagen 3D basándose en un intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D. Por ejemplo, para algunos lectores de códigos de barras portátiles, el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta un borde de la estación de trabajo próximo al operario. Para algunos lectores biópticos, el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta el límite distal de la zona de escaneado de producto. De estas formas, las características de imagen 2D se pueden utilizar para mejorar el procesamiento de imágenes 3D, eliminando el procesamiento de características de imagen 3D determinadas como no valiosas para el procesamiento y/o identificando características de imagen 3D que son valiosas para el procesamiento. La figura 11A ilustra una imagen 3D de ejemplo que identifica un objetivo 550 en una distancia de escaneado permitida y un operario 552 sujetando el objetivo 550 en su mano 554. En la imagen 3D también se identifican una silla 556 y una persona 558. La figura 11B ilustra una máscara de filtro desarrollada a partir de las características de imagen 2D correspondientes a la silla 556 y la persona 558. La figura 11C ilustra datos de imagen 3D mejorados donde se ha determinado que las características de imagen 2D de la figura 11B son características del entorno que se convierten en características de máscara, y los correspondientes datos de imagen 3D, correspondientes a estas características, se han eliminado para formar la imagen 3D mejorada de la figura 11C. Como resultado se pueden favorecer varios procesamientos, incluyendo, como se muestra en el bloque 510, entrenar modelos de reconocimiento de objetos tales como los de la red neuronal entrenada 364 utilizando datos de imagen 3D mejorados, llevar a cabo reconocimiento de objetos utilizando datos de imagen 3D mejorados, identificar una acción llevada a cabo por un operario, o ajustar por lo menos un parámetro asociado con el aparato de formación de imágenes 3D. Por ejemplo, el bloque 510 puede analizar los datos de imagen 3D mejorados identificando la acción llevada a cabo por el operario como una de presentar un objeto dentro de una zona de escaneado de producto y presentar el objeto próximo a la zona de escaneado de producto. En respuesta a que no se detecta ningún código de barras dentro de los datos de imagen 2D, el proceso 510 uede generar una alerta adecuada para señalizar un potencial evento de robo. Uno o varios aspectos del funcionamiento de procesamiento del bloque 510 se pueden llevar a cabo en la estación de escaneado 302 o en el servidor 350, por ejemplo. En algunos ejemplos, el bloque 510 puede proporcionar los datos de imagen 3D mejorados para entrenar un modelo de reconocimiento de objetos de una estructura de red neuronal. Por ejemplo, el bloque 506 puede identificar un código de barras en datos de imagen 2D y determinar un período de tiempo de evento de detección de código de barras. El bloque 508 puede generar imágenes 3D mejoradas como una imagen 3D capturada correspondiente a ese período temporal de evento de detección de código de barras, y el bloque 510 puede proporcionar esa imagen 3D para entrenar un modelo de reconocimiento de objetos. En este ejemplo, solo se utilizan datos de imagen 3D correspondientes a un evento de descodificación de simbología para entrenar un modelo de reconocimiento de objetos. Además, la imagen 3D utilizada para entrenar el modelo de reconocimiento de objetos se puede mejorar más eliminando objetos para generar una imagen 3D mejorada (por ejemplo, figura 11C) , que se utiliza para el entrenamiento. Además, en algunos ejemplos, el bloque 510 ajusta uno o varios parámetros de funcionamiento del lector de simbología, por ejemplo, uno o varios parámetros de funcionamiento del aparato de formación de imágenes 3D tales como la cantidad de iluminación proyectada del aparato de formación de imágenes 3D, la dirección de iluminación proyectada del aparato de formación de imágenes 3D, la fuente de iluminación para el aparato de formación de imágenes 3D. Uno o varios aspectos del funcionamiento de procesamiento del bloque 510 se pueden llevar a cabo en la estación de escaneado 302 o en el servidor 350, por ejemplo. En la figura 12, se muestra un diagrama de flujo de un proceso de ejemplo 600 para lectura de simbología utilizando imágenes 2D capturadas e imágenes 3D capturadas, como puede llevar a cabo la estación de escaneado 302 de la figura 7 y cualquiera de los sistemas de formación de imágenes 100, 100', 100'', 140, 140' y 200 de 1, 2, 3, 4A, 4B, 5 y 6, respectivamente. En un bloque 602, similar al bloque 402, un lector de simbología de un sistema de formación de imágenes captura una o varias imágenes 2D a través de un aparato de formación de imágenes 2D del lector de simbología. En particular, las imágenes 2D se capturan sobre un primer entorno dentro de un FOV. En un bloque 604, similar al bloque 404, un aparato de formación de imágenes 3D del lector de simbología aptura una o varias imágenes 3D de otro entorno de un segundo FOV correspondiente al aparato de formación de imágenes 3D. En el bloque 606, el sistema de formación de imágenes determina primeros datos de identificación del objeto utilizando los datos de imagen 2D capturados y segundos datos de identificación del objeto utilizando los datos de imagen 3D capturados. En algunos ejemplos, tanto los primeros datos de identificación del objeto como los segundos datos de identificación del objeto se determinan en una estación de escaneado, por ejemplo, en el lector de simbología 304. En algunos ejemplos, uno o ambos de estos datos de identificación del objeto se determinan en un servidor remoto, por ejemplo, el servidor 350. Por ejemplo, los primeros datos de identificación del objeto se pueden determinar en un lector de simbología, y los segundos datos de identificación del objeto se pueden determinar utilizando una red neuronal entrenada almacenada en esa simbología o almacenada remotamente en el servidor 350. En el ejemplo ilustrado, en el bloque 608, el sistema de formación de imágenes compara la primera identificación del objeto con la segunda identificación del objeto y determina que se ha producido un escaneado apropiado del objeto cuando hay una coincidencia o determina que se ha producido un escaneado inapropiado cuando no hay ninguna coincidencia. En algunos ejemplos, en respuesta a determinar el escaneado apropiado del objeto, el bloque 608 puede incluir, además, que el sistema de formación de imágenes (por ejemplo, un POS, un lector de simbología y/o un servidor remoto) procese un registro de transacciones para incluir los datos asociados con el objeto. En algunos ejemplos, en respuesta a determinar el escaneado inapropiado del objeto, el sistema de formación de imágenes puede generar una alerta adecuada para señalizar un potencial evento de robo y/o procesar un registro de transacciones para no incluir los datos asociados con el objeto. El bloque 606 se puede implementar de varias formas. En un ejemplo, determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D incluye identificar un código de barras para el objeto en los datos de imagen 2D y descodificar el código de barras para generar datos de carga útil de código de barras, y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. En un ejemplo, determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D incluye proporcionar los datos de imagen 2D a un modelo de reconocimiento de objetos entrenado, tal como la red neuronal entrenada 364, y producir, tilizando el modelo de reconocimiento de objetos entrenado, la primera identificación de objeto del objeto. En un ejemplo, determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D incluye proporcionar los datos de imagen 3D a un modelo de reconocimiento de objetos entrenado y producir, utilizando el modelo de reconocimiento de objetos entrenado, la segunda identificación de objeto del objeto. En otro ejemplo del bloque 606, antes de determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D, el sistema de formación de imágenes compara datos de imagen 3D con datos de imagen 2D, y elimina características del entorno fuera del objeto de los datos de imagen 2D basándose en los datos de imagen 3D. En otro ejemplo, antes de determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, el sistema de formación de imágenes compara los datos de imagen 3D con los datos de imagen 2D y elimina características del entorno fuera del objeto de los datos de imagen 3D basándose en los datos de imagen 2D. En otro ejemplo más del bloque 606, determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D incluye determinar una o varias características de color del objeto a partir de los datos de imagen 3D y, a partir de eso, determinar la segunda identificación del objeto a partir de las una o varias características de color. Estas características de color pueden incluir el color y/o el gradiente de color de un objeto. Dicha funcionalidad se puede utilizar para identificar diferentes productos, por ejemplo, examinando el color y/o el gradiente de color de datos de imagen 3D capturados de ese producto. En otro ejemplo del bloque 606, determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D incluye determinar una o varias características geométricas del objeto a partir de los datos de imagen 3D y determinar la segunda identificación del objeto a partir de las una o varias características geométricas. En otro ejemplo, determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D incluye identificar un código de barras para el objeto en los datos de imagen 2D y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. Si los datos de imagen 3D incluyen una nube de puntos que tiene una pluralidad de puntos de datos, cada punto de datos que tiene un valor de distancia asociado con una distancia desde el aparato de formación de imágenes 3D se uede determinar a partir de una o varias características geométricas del objeto. Por ejemplo, el bloque 606 puede determinar que una o varias características geométricas del objeto a partir de los datos de imagen 3D se basan en un primer subconjunto de los datos de imagen 3D y no se basan en un segundo subconjunto de los datos de imagen 3D. El primer subconjunto de los datos de imagen 3D puede estar asociado con un primer subconjunto de los puntos de datos que tienen un valor de distancia respectivo asociado con la distancia desde el aparato de formación de imágenes 3D dentro de un intervalo predeterminado, y el segundo subconjunto de los datos de imagen 3D puede estar asociado con un segundo subconjunto de los puntos de datos que tienen un valor de distancia respectivo asociado con la distancia desde el aparato de formación de imágenes 3D fuera del intervalo predeterminado. De esta forma, en algunos ejemplos, características de imagen 3D se pueden utilizar con características de imagen 2D para identificar un objeto que se intenta escanear, y determinar si el intento de escaneado del objeto está dentro de una distancia de escaneado permitida. En el ejemplo de la figura 9A, el código de barras 450 (como unos primeros datos de identificación del objeto) se puede identificar en una imagen 2D y la ubicación del objetivo 452 asociado con el código de barras 450 se puede identificar a partir de los datos de imagen 3D, junto con la distancia entre el objetivo 452 y el lector de simbología (como unos segundos datos de identificación del objeto) . Si esa distancia es menor que una distancia de escaneado permitida, por ejemplo, menor que la distancia del plano 152 en el ejemplo de la figura 4A o mayor que el plano de distancia 156 (definiendo la zona del FOV entre los planos 152 y 156 una distancia de escaneado permitida en este ejemplo) , entonces el bloque 608, comparando los primeros y segundos datos de identificación del objeto, puede determinar que se ha intentado un intento de escaneado inapropiado y, por lo tanto, bloquear la descodificación del código de barras 450 y/o bloquear la inclusión del objetivo 452 y el código de barras 450 en un registro de transacciones asociado con la estación de escaneado. En otro ejemplo, el bloque 604 puede identificar un objeto escaneable utilizando los datos de imagen 3D, y, si el bloque 606 no puede determinar una identificación de objeto del objeto utilizando los datos de imagen 2D, el bloque 608 puede determinar un escaneado inapropiado del objeto y generar una señal de alarma. Por ejemplo, una imagen 2D se puede capturar en el bloque 602, pero esa imagen 2D puede no tener ningún código de barras visible o tener solo un código de barras parcialmente visible, por ejemplo, si un operario cubre la totalidad o parte del código de barras. Después de detectar la presencia e un objeto que se está escaneando sobre una distancia de escaneado permitida en el FOV del aparato de formación de imágenes 3D, como se determina en el bloque 604, el bloque 606 intentará identificar el objeto escaneado en los datos de imagen 2D y en los datos de imagen 3D, es decir, determinando una primera y una segunda identificación del objeto, respectivamente. La segunda identificación del objeto puede ser la forma física, distancia o clasificación de producto (es decir, a partir de un modelo de reconocimiento de objetos entrenado) . Sin embargo, si no se puede determinar una primera identificación del objeto (por ejemplo, cuando no se puede descodificar apropiadamente ningún código de barras a partir de la imagen 2D) , el bloque 608 determina un escaneado inapropiado y genera una señal de alarma. En la figura 13 se muestra un diagrama de flujo de un proceso de ejemplo 700 para lectura de simbología utilizando imágenes 3D capturadas, como puede llevar a cabo la estación de escaneado 302 de la figura 7 y cualquiera de los sistemas de formación de imágenes 100, 100, 100, 140, 140 y 200 de 1, 2, 3, 4A, 4B, 5 y 6, respectivamente. Por ejemplo, el proceso 700 se puede implementar por un lector de simbología que tiene un aparato de formación de imágenes 3D, teniendo o no un aparato de formación de imágenes 2D adicional. En un bloque 702, un lector de simbología de un sistema de formación de imágenes captura una o varias imágenes 3D a través de un aparato de formación de imágenes 3D asociado con el lector de simbología. En particular, las imágenes 3D se capturan sobre un entorno dentro de un FOV del aparato de formación de imágenes 3D. En el bloque 704, el sistema de formación de imágenes lleva a cabo reconocimiento facial sobre los datos de imagen 3D identificando la presencia de datos faciales dentro del entorno. El reconocimiento facial se puede llevar a cabo examinando datos de nube de puntos, por ejemplo, e identificando características geométricas y comparándolas con un modelo de identificación de objetos entrenado, con un modelo de datos antropométricos 3D almacenado en una estación de escaneado o en un servidor remoto, o con otros modelos para identificar características faciales. Utilizando modelos que tienen datos tridimensionales, se puede llevar a cabo un reconocimiento facial más preciso. En respuesta a la identificación de la presencia de los datos faciales, en el bloque 706, el sistema de formación de imágenes ajusta uno o varios parámetros de funcionamiento del aparato de formación de imágenes basándose en la presencia de esos datos faciales. En algunos ejemplos, el bloque 706 ajusta uno o varios parámetros de funcionamiento de un aparato de formación de imágenes 2D dentro del sistema de formación de imágenes. En n ejemplo, el bloque 706 ajusta parámetros de funcionamiento de un aparato de formación de imágenes 2D de un lector de códigos de barras portátil reduciendo la intensidad de por lo menos uno de un conjunto de iluminación y un conjunto de apuntamiento que también pueden estar incluidos en un lector de simbología. En otro ejemplo de un lector de códigos de barras de portátil, el bloque 706 puede ajustar el parámetro de funcionamiento del aparato de formación de imágenes 2D impidiendo la activación de por lo menos alguna parte del aparato de formación de imágenes 2D hasta que una realización subsiguiente de reconocimiento facial sobre unos datos de imagen 3D subsiguientes asociados con una imagen 3D subsiguiente no pueda identificar otra presencia de datos faciales en los datos de imagen 3D subsiguientes. En algunos ejemplos, el proceso 700 puede incluir, además, un bloque 708 que captura una imagen 2D de un objeto utilizando un aparato de formación de imágenes 2D que tiene un parámetro de funcionamiento que se ha ajustado en el bloque 706. El sistema de formación de imágenes puede descodificar entonces un código de barras en la imagen 2D capturada para identificar un objeto. En algunos ejemplos, el bloque 704 identifica la presencia de los datos faciales en los datos de imagen 3D determinando una posición de los datos faciales en un FOV del aparato de formación de imágenes 3D, y el bloque 706 ajusta los parámetros de funcionamiento del aparato de formación de imágenes 2D ajustando los parámetros de funcionamiento basándose en la posición de los datos faciales. En algunos ejemplos, el parámetro de funcionamiento ajustado en el bloque 706 es un FOV del aparato de formación de imágenes 2D. Por ejemplo, el FOV del segundo aparato de formación de imágenes se puede ajustar para excluir ubicaciones donde residirían los datos faciales en el entorno del FOV. En algunos ejemplos, el parámetro de funcionamiento ajustado en el bloque 706 es una distancia focal del aparato de formación de imágenes 2D, por ejemplo, para ajustar dónde se enfoca el aparato de formación de imágenes 2D para capturar imágenes 2D de un objeto y/o para identificar un código de barras en un objeto. En algunos ejemplos, el parámetro de funcionamiento es un tiempo de exposición, una duración de pulso de iluminación, una posición de foco o un nivel de ampliación de imágenes del aparato de formación de imágenes 2D. La figura 14A ilustra una imagen 3D de ejemplo de un primer entorno de un FOV del aparato de formación de imágenes 3D. La figura 14B ilustra una imagen 3D de ejemplo de un segundo entorno. En el primer entorno de la figura 14A, se reconoce una cara 750 una primera distancia adyacente a un plato 752 de un lector de simbología, mientras que en el segundo entorno de la figura 14B, se reconoce una cara 754 a una segunda distancia lejos del plato 752. Basándose en la identificación de los datos faciales en el bloque 704, para la imagen 3D que captura el entorno en la figura 14A, el bloque 706, que identifica una cara, tal como la cara de un niño situado a la altura del lector bióptico, puede ajustar un parámetro de funcionamiento de un aparato de formación de imágenes 2D para proteger a la persona de ser iluminada por luz de un conjunto de iluminación. Por ejemplo, el bloque 706, respondiendo al entorno de la figura 14B, puede desactivar el lector de simbología para que no lleve a cabo un intento de escaneado de código de barras. El bloque 706 puede ajustar un tiempo de exposición, una duración de pulso de iluminación o un nivel de ampliación de imágenes de un aparato de formación de imágenes 2D para proteger a la persona antes de pasar el control al bloque 708 para capturar una imagen 2D. Un proceso similar se puede llevar a cabo utilizando datos de imagen 2D y reconocimiento facial. La figura 15 es un diagrama de flujo que muestra un proceso de ejemplo 780. En el bloque 782, un conjunto de formación de imágenes 2D captura imágenes 2D, y en el bloque 784 se lleva a cabo reconocimiento facial sobre las imágenes 2D. Por ejemplo, un procesador de imágenes puede estar configurado para utilizar un modelo de datos antropométricos 2D almacenados en una estación de escaneado, para determinar si hay datos de borde u otro contraste identificado en la imagen 2D que corresponden a datos faciales. En el bloque 786, se capturan datos de imagen 3D, y un bloque 788 compara los datos de imagen 2D y los datos de imagen 3D para identificar características de imagen 3D asociadas con los datos faciales en los datos de imagen 2D. Si se identifican características 3D, entonces un bloque 790 lleva a cabo una o varias funciones diferentes, en particular, determinar una distancia de los datos faciales desde el lector de códigos de barras y activar/desactivar selectivamente el escaneado del lector de códigos de barras basándose en la distancia, determinar datos antropométricos para los datos faciales y determinar si los datos faciales son de una persona o no, y ajustar por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D dentro del lector de códigos de barras. Como con el proceso 700, los parámetros de funcionamiento de ejemplo incluyen un tiempo de exposición, una duración de pulso de iluminación, una distancia focal o un nivel de ampliación de imágenes. En la figura 16 se muestra un diagrama de flujo que muestra un proceso de ejemplo 800 ue puede llevar a cabo una estación de escaneado, tal como en un punto de venta, teniendo esa estación de escaneado un aparato de formación de imágenes 3D asociado con la misma, como puede llevar a cabo la estación de escaneado 302 de la figura 7 y cualquiera de los sistemas de formación de imágenes 100, 100, 100, 140, 140 y 200 de 1, 2, 3, 4A, 4B, 5 y 6, respectivamente. Por ejemplo, el proceso 800 se puede implementar por un lector de simbología asociado con un aparato de formación de imágenes 3D, teniendo o no un aparato de formación de imágenes 2D adicional. En un bloque 802, similar al bloque 702, un lector de simbología de un sistema de formación de imágenes captura una o varias imágenes 3D a través de un aparato de formación de imágenes 3D del lector de simbología. En particular, las imágenes 3D se capturan sobre un entorno dentro de un FOV del aparato de formación de imágenes 3D. En un bloque 804, similar al bloque 704, el sistema de formación de imágenes lleva a cabo reconocimiento facial sobre los datos de imagen 3D identificando la presencia de datos faciales dentro del entorno. En un bloque 806, el sistema de formación de imágenes lleva a cabo una identificación facial sobre los datos faciales del bloque 704. En particular, el bloque 806 intenta autenticar una identificación facial. En respuesta a que la identificación facial se autentica, entonces en un bloque 808 el aparato de formación de imágenes 2D se puede utilizar para capturar imágenes 2D de un objeto en un entorno de un FOV del aparato de formación de imágenes 2D. En un ejemplo, autenticar la identificación facial se consigue comparando la identificación facial con una base de datos de usuarios autorizados. En un ejemplo, autenticar la identificación facial se consigue determinando que los datos faciales están a una distancia aceptable del aparato de formación de imágenes 3D. Por ejemplo, los datos faciales 750 en la figura 14A pueden dar como resultado una no autenticación, impidiendo la captura de imágenes 2D utilizando un aparato de formación de imágenes 2D, mientras que los datos faciales 754 pueden dar como resultado una autenticación. En algunos ejemplos, antes de llevar a cabo reconocimiento facial sobre los datos de imagen 3D, el bloque 806 puede identificar características del entorno en los datos de imagen 3D, siendo las características del entorno características en la imagen 3D fuera del objeto, y el proceso 800 puede eliminar características del entorno de los datos de imagen 3D. El bloque 808 se puede configurar para llevar a cabo un número de operaciones en respuesta a autenticar datos faciales. Después de capturar imágenes 2D, el bloque 808 puede capturar imágenes 2D utilizando un aparato de formación de imágenes 2D de la stación de escaneado. Es decir, en algunos ejemplos, el bloque 808 está configurado para permitir imágenes 2D y escaneado de objeto en respuesta a la autenticación de datos faciales. En algunos ejemplos, el bloque 808 puede estar configurado para impedir la captura de imágenes 2D subsiguientes. Por ejemplo, el bloque 808 puede autenticar los datos faciales y cumplir una condición de liberación que impide una descodificación de un código de barras capturado en la imagen de la imagen 2D. O el bloque 808 puede permitir que se produzca la descodificación de una imagen 2D y un código de barras, pero el bloque puede impedir añadir un elemento escaneado subsiguientemente a un registro de transacciones de elementos escaneados en el punto de venta. Por ejemplo, si los datos faciales indican que un usuario no autorizado, por ejemplo, un menor, está intentando escanear una imagen, el bloque 808 puede impedir que se capture una imagen 2D o permitir que se capture una imagen 2D pero impedir la descodificación de cualquier código de barras en la imagen. En algunos ejemplos, la autenticación puede ser indiferente e impedir cualquier descodificación de un código de barras en una imagen 2D. En algunos ejemplos, la autenticación puede impedir dicha descodificación solo para determinados tipos de objetos, tales como alcohol u otros elementos inapropiados según la edad. En dichos ejemplos, el bloque 808 puede permitir capturar una imagen 2D, identificar y descodificar un código de barras, y entonces, dependiendo del objeto identificado por esa descodificación, determinar si se cumple la condición de liberación de modo que el código de barras descodificado no se añade a un registro de transacciones en la estación de escaneado de punto de venta, impidiendo por tanto que el menor efectúe el escaneado y compre el objeto. Aunque los procesos de ejemplo de las figuras 15 y 16 se describen en el contexto de un lector de simbología y una estación de escaneado, los procesos descritos se pueden implementar en cualquier sistema de autenticación o sistema de detección de fraude basados en imagen, tal como un quiosco automático para comprar elementos dispensados, una estación o cajero automático, u otro sistema. En varios ejemplos, las técnicas de la presente invención se pueden implementar en otra aplicación de escaneado, incluyendo, por ejemplo, en aplicaciones de visión artificial. En la figura 17, se muestra un diagrama de flujo de un proceso de ejemplo 900 para escáner de objetos, por ejemplo, como puede llevar a cabo un sistema de visión artificial, utilizando imágenes 2D capturadas e imágenes 3D capturadas, como puede llevar a cabo un sistema de visión artificial tal como la estación de escaneado 302 implementada como un sistema de visión artificial. La figura 18 ilustra un circuito lógico de ejemplo mplementado en un sistema de visión artificial de ejemplo 1000. En el ejemplo ilustrado, el sistema de visión artificial 1000 incluye una matriz de sensores de imagen 2D en color 1002 configurada, en general, para detectar datos de imagen 2D dentro de un FOV de un aparato de formación de imágenes 2D. Más en particular, la matriz de sensores de imagen en color 1002 puede estar asociada con una matriz de filtros de color 1004 que incluye filtros de color asociados, respectivamente, con los sensores de imagen individuales de la matriz de sensores de imagen en color 1002. Por ejemplo, un primer sensor de imagen de la matriz de sensores de imagen en color 1002 puede estar asociado con un filtro verde y un segundo sensor de imagen de la matriz de sensores de imagen en color 1002 puede estar asociado con un filtro rojo. El patrón de filtros de color que forma la matriz de filtros de color 1004 puede ser un patrón de Bayer. Como se ilustra, el sistema de visión artificial 1000 también incluye un conjunto de iluminación 1014 configurado para producir una luz de iluminación dirigida hacia el FOV de imágenes de la matriz de sensores de imagen en color 2D 1004. Por ejemplo, el conjunto de iluminación 1014 puede incluir uno o varios diodos de emisión de luz (LED) u otros tipos de fuentes de luz. En algunas realizaciones, el conjunto de iluminación 1014 está configurado para emitir luz blanca (por ejemplo, luz que incluye longitudes de onda de todo el espectro visible) . El conjunto de iluminación 1014 puede incluir múltiples fuentes de iluminación, tales como una fuente de iluminación directa y una fuente de iluminación difusa. En algunos ejemplos, el conjunto de iluminación 1014 incluye fuentes de iluminación que emiten a diferentes longitudes de onda, tales como una fuente de iluminación de luz roja, una fuente de iluminación de luz verde, una fuente de iluminación de luz azul y/o una fuente de iluminación de luz blanca. Así pues, en varios ejemplos, la matriz de sensores de imagen en color 2D 1002 es capaz de detectar el intervalo completo de reflexiones de luz. El sistema de visión artificial 1000 incluye un aparato de formación de imágenes 3D 1005 para capturar imágenes 3D de un entorno en un FOV del aparato de formación de imágenes 3D. Además, el sistema de visión artificial 1000 incluye uno o varios procesadores de imagen 1006 capaces de ejecutar instrucciones para, por ejemplo, implementar operaciones de los procedimientos de ejemplo descritos en la presente memoria, como pueden representar los diagramas de flujo de los dibujos que acompañan a esta descripción. Los procesadores de imagen 1006 pueden ser uno o varios microprocesadores, controladores y/o cualquier tipo adecuado de procesador. El sistema de visión artificial de ejemplo 1000 incluye una memoria (por ejemplo, memoria volátil, memoria no volátil) 1008 accesible por los procesadores de imagen 1006 (por ejemplo, mediante un controlador de emoria) . El sistema de visión artificial de ejemplo 1000 también incluye un descodificador 1010 y un módulo de visión artificial 1012 configurado para analizar datos de imagen 2D y 3D que incluyen datos de imagen que se han procesado por los procesadores de imagen 1006. El descodificador de ejemplo 1010 está configurado para determinar si los datos de imagen 2D de la matriz de sensores de imagen en color 2D 1002 son representativos de un código de barras, y si lo son, descodificar el código de barras para determinar la información codificada. El módulo de visión artificial de ejemplo 1012 está configurado para llevar a cabo técnicas de reconocimiento de objetos sobre los datos de imagen 2D y/o los datos de imagen 3D para identificar características objetivo de los mismos. Por ejemplo, el módulo de visión artificial 1012 puede estar configurado para detectar características objetivo tales como grietas en un objeto y/o una conexión de soldadura incompleta para una patilla de un microchip, determinadas a partir de uno o ambos de datos de imagen 2D y datos de imagen 3D. En algunos ejemplos, el módulo de visión artificial 1012 puede estar configurado para detectar características utilizando datos de imagen 2D mejorados con datos de imagen 3D o datos de imagen 3D mejorados utilizando datos de imagen 2D. El sistema de visión artificial de ejemplo 1000 también incluye una interfaz 1016 de red para permitir la comunicación con otras máquinas mediante, por ejemplo, una o varias redes, e interfaces de entrada/salida (E/S) 1018 para permitir la recepción de entrada de usuario y la comunicación de datos de salida al usuario. Por ejemplo, los datos de salida pueden ser la información codificada determinada por el descodificador 1010 y/o una indicación de las características detectadas por el módulo de visión artificial 1012. Volviendo a la figura 17, en el bloque 902, un aparato de formación de imágenes 2D de un sistema de visión artificial (tal como la matriz de sensores de imagen en color 2D 1002) captura una imagen 2D de un objeto sobre un FOV. El sistema de visión artificial identifica un código de barras del objeto en la imagen 2D y determina una o varias características de objeto 3D del objeto a partir del código de barras. Por ejemplo, el bloque 902 puede descodificar el código de barras, identificar un objeto asociado y determinar características 3D del objeto, tales como características geométricas, tales como la forma, las superficies y/o las dimensiones del objeto. En el bloque 904, un aparato de formación de imágenes 3D del sistema de visión artificial (tal como el aparato de formación de imágenes 3D 1005) captura una o varias imágenes 3D de un entorno sobre un FOV y almacena los datos de imagen 3D correspondientes a las una o varias imágenes 3D. En el bloque 906, los datos de imagen 3D son examinados por el sistema e visión artificial (por ejemplo, por el módulo de visión artificial 1012) para identificar la presencia de una o varias características de objeto 3D, tales como las analizadas anteriormente en la presente memoria. En respuesta a determinar la presencia de una o varias características de objeto 3D, un bloque 908 proporciona una señal de detección de fallo digital a un usuario del sistema de visión artificial. En el ejemplo ilustrado, si el bloque 908 determina que las características de objeto 3D determinadas a partir del bloque 902 no están presentes en los datos de imagen 3D a partir del bloque 906, se proporciona a un usuario una señal de detección de fallo digital. En un ejemplo, determinar características de objeto 3D a partir del código de barras en la imagen 2D se lleva a cabo descodificando el código de barras para generar datos de carga útil de código de barras y determinando la identificación del objeto a partir de los datos de carga útil de código de barras y determinando, a partir de la identificación del objeto, las una o varias características de objeto 3D del objeto. En otro ejemplo, determinar las características de objeto 3D del objeto a partir del código de barras en la imagen 2D se lleva a cabo determinando una orientación del objeto a partir de una ubicación del código de barras en la imagen 2D y determinando, a partir de la orientación del objeto, las una o varias características de objeto 3D como un subconjunto de características de objeto 3D disponibles. En algunos ejemplos, las características de objeto 3D incluyen por lo menos una de una característica dimensional y una característica de forma. Si no se detecta ningún fallo en el bloque 908, en el bloque 910, si se determina que las características de objeto 3D determinadas a partir del bloque 902 están presentes en los datos de imagen 3D a partir del bloque 906, el bloque 910 puede determinar si se debe realizar un cambio en por lo menos un parámetro asociado con el sistema de visión artificial. De esta forma, el bloque 910 puede utilizar datos de color de una matriz de sensores de imagen en color 2D para llevar a cabo una comprobación de color, a partir de la cual el bloque 910 determina si una fuente de iluminación debería cambiarse para iluminar mejor un objeto bajo inspección por el sistema de visión artificial. El bloque 910 puede valorar datos de imagen 2D y datos de imagen 3D para determinar propiedades tales como la orientación, la iluminación y la posición de un objeto y ajustar entonces la fuente de iluminación, la dirección de la iluminación, la longitud de onda de la fuente de iluminación (por ejemplo, utilizando fuentes de iluminación de diferentes longitudes de onda) . Por ejemplo, el bloque 910 puede determinar condiciones de iluminación óptimas, tales como valores de color, intensidad y/o dirección de iluminación para un escaneado de visión artificial de "unidad ideal" y cambiar parámetros a esas condiciones de iluminación óptimas. De esta forma, los datos de color, tales como la presencia del color ojo determinada a partir de los datos de imagen 2D, se pueden utilizar para ajustar condiciones de iluminación para llevar a cabo escaneados de visión artificial con el aparato de formación de imágenes 2D o el aparato de formación de imágenes 3D. En otros ejemplos, los datos de color se pueden determinar a partir de datos de imagen 3D capturados por el aparato de formación de imágenes 3D. El proceso 900 permite que un sistema de visión artificial capture datos a partir de un aparato de formación de imágenes 2D y un aparato de formación de imágenes 3D, compare los datos de imagen 2D y los datos de imagen 3D resultantes y determine cambios en parámetros de funcionamiento del sistema de visión artificial para ajustar rápidamente, sobre la marcha, el sistema de visión artificial para capturar imágenes bajo condiciones mejoradas, aumentando de este modo la precisión y el rendimiento de escaneado de estos sistemas. La descripción anterior se refiere a un diagrama de bloques de los dibujos adjuntos. Implementaciones alternativas del ejemplo representado por el diagrama de bloques incluyen uno o varios elementos, procesos y/o dispositivos adicionales o alternativos. Adicional o alternativamente, uno o varios de los bloques de ejemplo del diagrama se pueden combinar, dividir, reorganizar u omitir. Los componentes representados por los bloques del diagrama están implementados por hardware, software, firmware y/o cualquier combinación de hardware, software y/o firmware. En algunos ejemplos, por lo menos uno de los componentes representados por los bloques está implementado por un circuito lógico. Tal como se utiliza en la presente memoria, el término "circuito lógico" se define expresamente como un dispositivo físico que incluye por lo menos un componente de hardware configurado (por ejemplo, mediante el funcionamiento según una configuración predeterminada y/o mediante la ejecución de instrucciones legibles por máquina almacenadas) para controlar una o varias máquinas y/o llevar a cabo operaciones de una o varias máquinas. Ejemplos de un circuito lógico incluyen uno o varios procesadores, uno o varios coprocesadores, uno o varios microprocesadores, uno o varios controladores, uno o varios procesadores de señales digitales (DSP) , uno o varios circuitos integrados de aplicaciones específicas (ASIC) , una o varias matrices de puertas programables in situ (FPGA) , una o varias unidades de microcontrolador (MCU) , uno o varios aceleradores de hardware, uno o varios chips informáticos de propósito especial y uno o varios dispositivos de sistema en chip (SoC, System-on-a-chip) . Algunos circuitos lógicos de ejemplo, tales como ASIC o FPGA, son hardware configurado específicamente para llevar a cabo operaciones (por ejemplo, una o varias de las operaciones descritas en la presente memoria y representadas por los diagramas de flujo de esta invención, si están presentes) . Algunos circuitos lógicos de ejemplo son hardware ue ejecuta instrucciones legibles por máquina para llevar a cabo operaciones (por ejemplo, una o varias de las operaciones descritas en la presente memoria y representadas por los diagramas de flujo de esta invención, si están presentes) . Algunos circuitos lógicos de ejemplo incluyen una combinación de hardware configurado específicamente y hardware que ejecuta instrucciones legibles por máquina. La descripción anterior se refiere a varias operaciones descritas en la presente memoria y a diagramas de flujo que se pueden adjuntar a la misma para ilustrar el flujo de esas operaciones. Cualesquiera diagramas de flujo de este tipo son representativos de procedimientos de ejemplo dados a conocer en la presente memoria. En algunos ejemplos, los procedimientos representados por los diagramas de flujo implementan el aparato representado por los diagramas de bloques. Implementaciones alternativas de los procedimientos de ejemplo dados a conocer en la presente memoria pueden incluir operaciones adicionales o alternativas. Además, las operaciones de implementaciones alternativas de los procedimientos dados a conocer en la presente memoria se pueden combinar, dividir, reorganizar u omitir. En algunos ejemplos, las operaciones descritas en la presente memoria están implementadas por instrucciones legibles por máquina (por ejemplo, software y/o firmware) almacenadas en un medio (por ejemplo, medio tangible legible por máquina) para su ejecución por uno o varios circuitos lógicos (por ejemplo, uno o varios procesadores) . En algunos ejemplos, las operaciones descritas en la presente memoria están implementadas por una o varias configuraciones de uno o varios circuitos lógicos diseñados específicamente (por ejemplo, ASIC) . En algunos ejemplos, las operaciones descritas en la presente memoria están implementadas por una combinación de uno o varios circuitos lógicos diseñados específicamente e instrucciones legibles por máquina almacenadas en un medio (por ejemplo, un medio tangible legible por máquina) para su ejecución por uno o varios circuitos lógicos. Tal como se utilizan en la presente memoria, cada uno de los términos "medio tangible legible por máquina", "medio no transitorio legible por máquina" y "dispositivo de almacenamiento legible por máquina" se define expresamente como un medio de almacenamiento (por ejemplo, un disco de una unidad de disco duro, un disco versátil digital, un disco compacto, memoria flash, memoria de solo lectura, memoria de acceso aleatorio, etc.) en el que se almacenan instrucciones legibles por máquina (por ejemplo código de programa en la forma de, por ejemplo, software y/o firmware) durante cualquier duración de tiempo adecuada (por ejemplo, permanentemente, durante un período de tiempo prolongado (por ejemplo, mientras se está ejecutando un programa asociado con las instrucciones legibles por máquina) y/o durante un período de tiempo corto (por jemplo, mientras las instrucciones legibles por máquina se almacenan en caché y/o durante un proceso de almacenamiento en memoria intermedia) ) . Además, tal como se utiliza en la presente memoria, cada uno de los términos "medio tangible legible por máquina", "medio no transitorio legible por máquina" y "dispositivo de almacenamiento legible por máquina" se define expresamente para excluir señales de propagación. Es decir, tal como se utiliza en cualquier reivindicación de esta patente, no se puede interpretar ninguno de los términos "medio tangible legible por máquina", "medio no transitorio legible por máquina" y "dispositivo de almacenamiento legible por máquina" como implementado por una señal de propagación. En la descripción anterior, se han descrito realizaciones específicas. Sin embargo, un experto en la materia apreciará que se pueden realizar diversas modificaciones y cambios sin salirse del alcance de la invención, tal como se expone en las reivindicaciones que siguen. Por consiguiente, la descripción y las figuras se deben considerar en un sentido ilustrativo en lugar de restrictivo, y la totalidad de dichas modificaciones pretende estar incluida dentro del alcance de las presentes enseñanzas. Adicionalmente, las realizaciones/ejemplos/implementaciones descritos no deben interpretarse como mutuamente exclusivos, y, por el contrario, deben entenderse como potencialmente combinables, si dichas combinaciones están permitidas de alguna forma. En otras palabras, cualquier característica dada a conocer en cualquiera de las realizaciones/ejemplos/implementaciones mencionadas anteriormente puede estar incluida en cualquiera de las otras realizaciones/ejemplos/implementaciones mencionados anteriormente. Los beneficios, ventajas, soluciones a problemas y cualesquiera uno o varios elementos que puedan causar que se produzca o que refuerce cualquier beneficio, ventaja o solución, no se deben interpretar como características o elementos críticos, requeridos o esenciales de alguna o de la totalidad de las reivindicaciones. La invención reivindicada se define únicamente por las reivindicaciones adjuntas, incluyendo cualesquiera correcciones realizadas durante la pendencia de la presente solicitud y todos los equivalentes de dichas reivindicaciones concedidas. Además, en el presente documento, los términos relacionales, tales como primero y segundo, superior e inferior y similares se pueden utilizar únicamente para distinguir una entidad o acción de otra entidad o acción sin que requiera ni implique necesariamente ninguna relación real de ese tipo ni orden entre dichas entidades o acciones. Los érminos "comprende", "comprendiendo", "tiene", "teniendo", "incluye", "incluyendo", "contiene", "conteniendo" o cualquier otra variación de los mismos pretenden abarcar una inclusión no exclusiva, de manera que un proceso, procedimiento, artículo o aparato que comprenda, tenga, incluya, contenga una lista de elementos, no incluye solo esos elementos sino que puede incluir otros elementos no enumerados expresamente o inherentes a dicho proceso, procedimiento, artículo o aparato. Un elemento precedido por "comprende un ...", "tiene un ...", "incluye un ...", "contiene un ..." no excluye, sin más limitaciones, la existencia de elementos idénticos adicionales en el proceso, procedimiento, artículo o aparato que comprende, tiene, incluye, contiene el elemento. Los términos "un" y "uno/a" se definen como uno o varios, salvo que se indique de otro modo explícitamente en el presente documento. Los términos "sustancialmente", "esencialmente", "aproximadamente", "en torno a" o cualquier otra versión de los mismos, se definen como estar cerca de, como comprenderá un experto en la materia, y, en una realización no limitativa, el término se define como estar dentro del 10%, en otra realización dentro del 5%, en otra realización dentro del 1% y en otra realización dentro del 0, 5%. El término "acoplado", tal como se utiliza en la presente memoria, se define como conectado, aunque no necesariamente directamente y no necesariamente mecánicamente. Un dispositivo o estructura que está "configurado" de una forma determinada está configurado por lo menos de esa forma, pero también puede estar configurado en formas que no se enumeran. El Resumen de la invención se proporciona para permitir al lector determinar rápidamente la naturaleza de la invención técnica. Este se presenta entendiéndose que no se utilizará para interpretar ni limitar el alcance ni el significado de las reivindicaciones. Además, en la Descripción detallada anterior, se puede ver que varias características se agrupan en conjunto en varias realizaciones con el propósito de simplificar la invención. No se debe interpretar que este procedimiento de descripción refleja una intención de que las realizaciones reivindicadas requieren más características de las que se citan expresamente en cada reivindicación. Por el contrario, como reflejan las siguientes reivindicaciones, la materia objeto de la invención puede consistir en menos de la totalidad de las características de una única realización dada a conocer. Por tanto, las siguientes reivindicaciones se incorporan por la presente en la Descripción detallada, siendo cada reivindicación autosuficiente como una materia objeto reivindicada de forma independiente. Ejemplos: 1. Procedimiento de procesamiento de datos utilizando un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con el lector de códigos de barras y que tiene un segundo FOV que se superpone, por lo menos parcialmente, con el primer FOV, una imagen 3D de un segundo entorno que aparece dentro del segundo FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; identificar una o varias características de imagen 2D dentro del primer entorno a partir de los datos de imagen 2D; mejorar los datos de imagen 3D, dando como resultado datos de imagen 3D mejorados, mediante correlacionar las una o varias características de imagen 2D con por lo menos una o varias características de imagen 3D en los datos de imagen 3D; y procesar los datos de imagen 3D mejorados para por lo menos uno de (a) entrenar un modelo de reconocimiento de objetos con los datos de imagen 3D mejorados, (b) reconocer un objeto dentro de los datos de imagen 3D mejorados, (c) identificar una acción llevada a cabo por un usuario del lector de códigos de barras, y (d) cambiar por lo menos un parámetro asociado con el aparato de formación de imágenes 3D. 2. Procedimiento, según la reivindicación 1, en el que los datos de imagen 2D comprenden uno de datos de imagen monocromática, datos de imagen en escala de grises y datos de imagen polícroma, y en el que las una o varias características de imagen 2D incluyen por lo menos una de un código de barras y una o varias características geométricas de un objeto presentado dentro del primer FOV. 3. Procedimiento, según la reivindicación 2, en el que las una o varias características de imagen 2D incluyen el código de barras, y en el que mejorar los datos de imagen 3D incluye asignar una ubicación del código de barras de los datos de imagen 2D a los datos de imagen 3D. 4. Procedimiento, según la reivindicación 2, en el que los datos de imagen 2D comprenden datos de imagen polícroma, en el que las una o varias características de imagen 2D incluyen las una o varias características geométricas del objeto presentado dentro del primer FOV, y en el que mejorar los datos de imagen 3D incluye asignar por lo menos una parte de los datos de imagen polícroma a los datos de imagen 3D basándose, por lo menos en parte, en las una o varias características geométricas del objeto presentado dentro del primer FOV. 5. Procedimiento, según la reivindicación 2, en el que mejorar los datos de imagen 3D incluye, además, filtrar las por lo menos una o varias características de imagen 3D de modo que procesar los datos de imagen 3D mejorados excluye procesar datos de imagen asociados con las por lo menos una o varias características de imagen 3D. 6. Procedimiento, según la reivindicación 2, en el que mejorar los datos de imagen 3D incluye, además, filtrar las por lo menos una o varias características de imagen 3D de modo que procesar los datos de imagen 3D mejorados se limita a procesar los datos de imagen asociados con las por lo menos una o varias características de imagen 3D. 7. Procedimiento, según la reivindicación 2, en el que mejorar los datos de imagen 3D incluye, además, filtrar los datos de imagen 3D basándose en un intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D. 8. Procedimiento, según la reivindicación 7, en el que el lector de códigos de barras es un lector de códigos de barras estacionario configurado para ser posicionado dentro de una estación de trabajo y manejado por el operario, y en el que el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta un borde de la estación de trabajo próximo al operario. 9. Procedimiento, según la reivindicación 7, en el que el lector de códigos de barras es un lector de códigos de barras bióptico que tiene una zona de escaneado de producto, y en el que el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta el límite distal de la zona de escaneado de producto. 10. Procedimiento, según la reivindicación 1, en el que las una o varias características de imagen 2D incluyen por lo menos una de (i) por lo menos una parte de una mano del operario, y (ii) un objeto agarrado por la mano del operario. 11. Procedimiento, según la reivindicación 1, en el que procesar los datos de imagen 3D mejorados incluye identificar la acción llevada a cabo por el operario, y en respuesta a identificar la acción llevada a cabo por el operario como una de presentar un objeto dentro de una zona de escaneado de producto y presentar el objeto próximo a la zona de escaneado de producto y, en respuesta, además, a que no se detecta ningún código de barras dentro de los datos de imagen 2D, generar una alerta adecuada para señalizar un potencial evento de robo. 12. Procedimiento, según la reivindicación 1, en el que identificar las una o varias características de imagen 2D comprende: identificar características del entorno en la imagen 2D, en el que las características del entorno son características en la imagen fuera de un objeto presentado dentro del primer FOV; convertir las características del entorno en características de máscara configuradas para cubrir las características del entorno identificadas en la imagen 2D; e identificar las características de máscara como las una o varias características de imagen 2D. 13. Procedimiento, según la reivindicación 1, en el que identificar una o varias características de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; descodificar el código de barras para generar datos de carga útil de código de barras y determinar la identificación del objeto a partir de los datos de carga útil de código de barras; y determinar, a partir de la identificación del objeto, las una o varias características de imagen 2D. 14. Procedimiento, según la reivindicación 1, en el que procesar los datos de imagen 3D mejorados para entrenar el modelo de reconocimiento de objetos con los datos de magen 3D mejorados comprende: identificar un código de barras en los datos de imagen 2D, determinar un período de tiempo de evento de detección de código de barras y entrenar el modelo de reconocimiento de objetos con los datos de imagen 3D mejorados correspondientes al período de tiempo de evento de detección de código de barras; o identificar un código de barras en los datos de imagen 2D, identificar el objeto dentro de los datos de imagen 3D mejorados correspondiente al código de barras en los datos de imagen 2D, y, después de identificar otro objeto en la imagen 3D no correspondiente al código de barras, eliminar los otros objetos de los datos de imagen 3D mejorados antes de entrenar el modelo de reconocimiento de objetos con los datos de imagen 3D mejorados. 15. Procedimiento, según la reivindicación 1, en el que el por lo menos un parámetro asociado con el aparato de formación de imágenes 3D comprende una cantidad de iluminación proyectada del aparato de formación de imágenes 3D, una dirección de iluminación proyectada del aparato de formación de imágenes 3D, o una fuente de iluminación para el aparato de formación de imágenes 3D. 16. Procedimiento para identificar un escaneado apropiado de un objeto o un escaneado inapropiado del objeto utilizando un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con el lector de códigos de barras y que tiene un segundo FOV que se superpone, por lo menos parcialmente, con el primer FOV, una imagen 3D de un segundo entorno que aparece dentro del segundo FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; determinar una primera identificación de objeto del objeto utilizando los datos de imagen 2D; determinar una segunda identificación de objeto del objeto utilizando los datos de imagen 3D; y comparar la primera identificación del objeto con la segunda identificación del objeto, y determinar (a) el escaneado apropiado del objeto cuando la primera identificación del objeto coincide con la segunda identificación del objeto y (b) el escaneado inapropiado del objeto cuando la primera identificación del objeto no coincide con la segunda identificación del objeto. 17. Procedimiento, según la reivindicación 16, en el que determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. 18. Procedimiento, según la reivindicación 16, en el que determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: proporcionar los datos de imagen 2D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la primera identificación de objeto del objeto. 19. Procedimiento, según la reivindicación 16, en el que determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D comprende: proporcionar los datos de imagen 3D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la segunda identificación de objeto del objeto. 20. Procedimiento, según la reivindicación 16, en el que antes de determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D, el procedimiento comprende, además: comparar los datos de imagen 3D con los datos de imagen 2D; y eliminar características del entorno fuera del objeto de los datos de imagen 2D asándose en los datos de imagen 3D. 21. Procedimiento, según la reivindicación 16, en el que antes de determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, el procedimiento comprende: comparar los datos de imagen 3D con los datos de imagen 2D; y eliminar características del entorno fuera del objeto de los datos de imagen 3D basándose en los datos de imagen 2D. 22. Procedimiento, según la reivindicación 16, en el que determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D comprende: determinar una o varias características de color del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características de color. 23. Procedimiento, según la reivindicación 22, en el que las una o varias características de color comprenden un color del objeto. 24 Procedimiento, según la reivindicación 22, en el que las una o varias características de color comprenden un gradiente de color del objeto. 25. Procedimiento, según la reivindicación 16, en el que determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D comprende: determinar una o varias características geométricas del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características geométricas. 26. Procedimiento, según la reivindicación 25, en el que determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; y escodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. 27. Procedimiento, según la reivindicación 26, en el que los datos de imagen 3D incluyen una nube de puntos que comprende una pluralidad de puntos de datos, teniendo cada uno de los puntos de datos un valor de distancia asociado con una distancia desde el aparato de formación de imágenes 3D, y en el que determinar las una o varias características geométricas del objeto a partir de los datos de imagen 3D se basa en un primer subconjunto de los datos de imagen 3D y no se basa en un segundo subconjunto de los datos de imagen 3D, estando asociado el primer subconjunto de los datos de imagen 3D con un primer subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde al aparato de formación de imágenes 3D dentro de un intervalo predeterminado, estando asociado el segundo subconjunto de los datos de imagen 3D con un segundo subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde el aparato de formación de imágenes 3D fuera del intervalo predeterminado. 28. Procedimiento, según la reivindicación 16, en el que, en respuesta a determinar (a) el escaneado apropiado del objeto, el procedimiento comprende, además, procesar un registro de transacciones para incluir los datos asociados con el objeto, y en respuesta a determinar (b) el escaneado inapropiado del objeto, el procedimiento comprende, además, por lo menos uno de (i) generar una alerta adecuada para señalizar un potencial evento de robo, y (ii) procesar el registro de transacciones para no incluir los datos asociados con el objeto. 29. Procedimiento para identificar un escaneado inapropiado del objeto utilizando un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con el lector de códigos de barras y que tiene un segundo FOV que se superpone, por lo enos parcialmente, con el primer FOV, una imagen 3D de un segundo entorno que aparece dentro del segundo FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; identificar un objeto escaneable utilizando los datos de imagen 3D; y después de no poder determinar una identificación de objeto del objeto utilizando los datos de imagen 2D, determinar un escaneado inapropiado del objeto y generar una señal de alarma. 30. Procedimiento de funcionamiento de un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) dentro del lector de códigos de barras y que tiene un primer FOV, una imagen 3D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; llevar a cabo reconocimiento facial sobre los datos de imagen 3D e identificar una presencia de datos faciales en los datos de imagen 3D; y en respuesta a identificar la presencia de los datos faciales, ajustar por lo menos un parámetro de funcionamiento de un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras. 31. Procedimiento, según la reivindicación 30, en el que el lector de códigos de barras es un lector de códigos de barras de presentación, y en el que ajustar el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D incluye reducir la intensidad de por lo menos uno de un conjunto de iluminación y un conjunto de apuntamiento. 32. Procedimiento, según la reivindicación 30, en el que el lector de códigos de barras es un lector de códigos de barras de presentación, y en el que ajustar el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D incluye impedir la activación de por lo menos alguna parte del aparato de formación de imágenes 2D hasta que una realización subsiguiente de reconocimiento facial sobre unos datos de imagen 3D subsiguientes asociados con una imagen 3D subsiguiente no pueda identificar otra presencia de datos faciales en los datos de imagen 3D subsiguientes. 33. Procedimiento, según la reivindicación 30, en el que el procedimiento incluye, además, capturar una imagen 2D de un objeto, utilizar el aparato de formación de imágenes 2D ajustado según el por lo menos un parámetro de funcionamiento, y descodificar un código de barras en la imagen 2D para identificar el objeto. 34. Procedimiento, según la reivindicación 30, en el que identificar la presencia de los datos faciales en los datos de imagen 3D comprende determinar una posición de los datos faciales en un primer FOV del aparato de formación de imágenes 3D, y en el que ajustar los parámetros de funcionamiento del aparato de formación de imágenes 2D comprende ajustar los parámetros de funcionamiento basándose en la posición de los datos faciales. 35. Procedimiento, según la reivindicación 30, en el que los parámetros de funcionamiento comprenden un segundo FOV del aparato de formación de imágenes 2D. 36. Procedimiento, según la reivindicación 30, en el que los parámetros de funcionamiento comprenden una distancia focal del aparato de formación de imágenes 2D. 37. Procedimiento, según la reivindicación 30, en el que el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D es un tiempo de exposición, una duración de pulso de iluminación o un nivel de ampliación de imágenes. 38. Procedimiento de funcionamiento de un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) dentro del lector de códigos de barras y que tiene un primer campo de visión (FOV) , una imagen 2D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 2D correspondientes a la imagen 2D; llevar a cabo reconocimiento facial sobre los datos de imagen 2D e identificar una presencia de datos faciales en los datos de imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) dentro del lector de códigos de barras y que tiene un primer FOV, una imagen 3D de un segundo entorno que aparece dentro del primer FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; y en respuesta a identificar una o varias características de imagen 3D asociadas con los datos faciales en los datos de imagen 2D, llevar a cabo por lo menos uno de (a) determinar una distancia de los datos faciales desde el lector de códigos de barras y activar/desactivar selectivamente el escaneado del lector de códigos de barras basándose en la distancia, (b) determinar datos antropométricos para los datos faciales y determinar si los datos faciales son de una persona o no, y (c) ajustar por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D dentro del lector de códigos de barras. 39. Procedimiento, según la reivindicación 38, en el que el por lo menos un parámetro de funcionamiento del aparato de formación de imágenes 2D es un tiempo de exposición, una duración de pulso de iluminación, una posición de foco o un nivel de ampliación de imágenes. 40. Procedimiento, según la reivindicación 38, en el que identificar la presencia de los datos faciales en los datos de imagen 3D comprende determinar una posición de los datos faciales en un primer FOV del aparato de formación de imágenes 3D, y en el que ajustar los parámetros de funcionamiento del aparato de formación de imágenes 2D comprende ajustar los parámetros de funcionamiento basándose en la posición de los datos faciales. 41. Procedimiento de funcionamiento de una estación de escaneado de punto de venta que tiene un lector de códigos de barras, comprendiendo el procedimiento: capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) asociado con la estación de escaneado de punto de venta y que tiene un primer FOV, una imagen 3D de un primer entorno que aparece dentro del primer FOV y almacenar datos de imagen 3D correspondientes a la imagen 3D; llevar a cabo reconocimiento facial sobre los datos de imagen 3D e identificar una presencia de datos faciales en los datos de imagen 3D; llevar a cabo una identificación facial sobre los datos faciales y autenticar la identificación facial; y en respuesta a autenticar la identificación facial, por lo menos uno de (a) capturar una imagen bidimensional (2D) de un objeto utilizando un aparato de formación de imágenes 2D dentro del lector de códigos de barras y descodificar un código de barras en la imagen 2D para identificar el objeto y (b) cumplir una condición de liberación para impedir una escodificación de un código de barras capturado en la imagen de la imagen 2D o para impedir añadir un elemento escaneado subsiguientemente a un registro de transacciones de elementos escaneados. 42. Procedimiento, según la reivindicación 41, en el que autenticar la identificación facial comprende comparar la identificación facial con una base de datos de usuarios autorizados. 43. Procedimiento, según la reivindicación 41, en el que autenticar la identificación facial comprende determinar que los datos faciales están en una posición aceptable dentro del primer FOV del aparato de formación de imágenes 3D. 44. Procedimiento, según la reivindicación 41, en el que antes de llevar a cabo reconocimiento facial sobre los datos de imagen 3D y de identificar la presencia de los datos faciales en los datos de imagen 3D, el procedimiento comprende: identificar características del entorno en los datos de imagen 3D, siendo las características del entorno características en la imagen 3D fuera del objeto; y eliminar características del entorno de los datos de imagen 3D. 45. Procedimiento de visión artificial que comprende: capturar, utilizando un aparato de formación de imágenes bidimensionales (2D) , una imagen 2D de un objeto, identificar un código de barras del objeto en la imagen 2D, y determinar una o varias características de objeto tridimensional (3D) del objeto a partir del código de barras en la imagen 2D; capturar, utilizando un aparato de formación de imágenes tridimensionales (3D) del sistema de visión artificial, una imagen 3D de un entorno y almacenar datos de imagen 3D correspondientes a la imagen 3D; examinar los datos de imagen 3D para detectar una presencia de las una o varias características de objeto 3D; en respuesta a determinar que por lo menos una de las una o varias características de objeto 3D está ausente de los datos de imagen 3D, proporcionar una señal de detección de fallo digital a un usuario del sistema de visión artificial; y en respuesta a determinar que por lo menos una de las una o varias características de objeto 3D está presente en los datos de imagen 3D, cambiar por lo menos un parámetro sociado con el sistema de visión artificial. 46. Procedimiento de visión artificial, según la reivindicación 45, en el que determinar las una o varias características de objeto 3D del objeto a partir del código de barras en la imagen 2D comprende: descodificar el código de barras para generar datos de carga útil de código de barras y determinar la identificación del objeto a partir de los datos de carga útil de código de barras; y determinar, a partir de la identificación del objeto, las una o varias características de objeto 3D del objeto. 47. Procedimiento de visión artificial, según la reivindicación 45, en el que determinar las una o varias características de objeto 3D del objeto a partir del código de barras en la imagen 2D comprende: determinar una orientación del objeto a partir de una ubicación del código de barras en la imagen 2D; y determinar, a partir de la orientación del objeto, las una o varias características de objeto 3D como un subconjunto de características de objeto 3D disponibles. 48. Procedimiento de visión artificial, según la reivindicación 45, en el que las una o varias características de objeto 3D son por lo menos una de una característica dimensional y una característica de forma. 49. Procedimiento de visión artificial, según la reivindicación 45, en el que cambiar por lo menos un parámetro asociado con el sistema de visión artificial comprende cambiar un tiempo de exposición de un aparato de formación de imágenes 2D del sistema de visión artificial, una duración de pulso de iluminación de un conjunto de iluminación del sistema de visión artificial, una posición focal del aparato de formación de imágenes 2D del sistema de visión artificial, un nivel de ampliación de imágenes del aparato de formación de imágenes 2D, un brillo de iluminación, una longitud de onda de iluminación, o una fuente de iluminación del sistema de visión artificial. 50. Procedimiento de visión artificial, según la reivindicación 49, en el que la fuente de iluminación es una fuente de iluminación difusa o una fuente de iluminación directa. 51. Procedimiento de visión artificial, según la reivindicación 49, en el que cambiar la fuente de iluminación comprende cambiar de una fuente de iluminación que emite a una primera longitud de onda a una fuente de iluminación que emite a una segunda longitud de onda, diferente de la primera longitud de onda. 52. Estación de escaneado, que comprende: un aparato de formación de imágenes bidimensionales (2D) configurado para: capturar una imagen 2D de un objeto en un campo de visión (FOV) del aparato de formación de imágenes 2D; identificar un código de barras en la imagen 2D; e identificar el objeto a partir de una carga útil de código de barras; un aparato de formación de imágenes 3D configurado para: capturar una imagen 3D del objeto en un FOV del aparato de formación de imágenes 3D; y generar datos de imagen 3D a partir de la imagen 3D; y un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: identifique una o varias características de objeto 3D partir de los datos de imagen 3D; evalúe las una o varias características de objeto 3D con respecto a una identidad del objeto; y en respuesta a evaluar las una o varias características de objeto 3D con respecto a la identidad del objeto, ajuste un parámetro de funcionamiento de la estación de escaneado. 53. Estación de escaneado, según la reivindicación 52, en la que los datos de imagen 3D comprenden datos de nube de puntos 3D y las una o varias características de objeto 3D comprenden por lo menos una de características geométricas del objeto, color del objeto, gradación de color del objeto. 54. Estación de escaneado, según la reivindicación 52, en la que los datos de imagen 3D omprenden datos de nube de puntos 3D y las una o varias características de objeto 3D comprenden una posición del objeto en el FOV del aparato de formación de imágenes 3D. 55. Estación de escaneado, según la reivindicación 54, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine si la posición del objeto en el FOV del aparato de formación de imágenes 3D está en un intervalo aceptable para capturar la imagen 2D del objeto utilizando el aparato de formación de imágenes 2D; y en respuesta a que la posición del objeto en el FOV del aparato de formación de imágenes 3D no está en el intervalo aceptable, se abstenga de capturar una imagen 2D subsiguiente por el aparato de formación de imágenes 2D, hasta que se cumpla una condición de liberación. 56. Estación de escaneado, según la reivindicación 52, en la que el parámetro de funcionamiento comprende por lo menos uno de una intensidad de iluminación de un aparato de iluminación en el aparato de formación de imágenes 2D, un FOV del aparato de formación de imágenes 2D y una distancia focal del aparato de formación de imágenes 2D. 57. Estación de escaneado, según la reivindicación 52, en la que la estación de escaneado es un escáner bióptico que tiene una parte de torre y una parte de plato. 58. Estación de escaneado, según la reivindicación 57, en la que el aparato de formación de imágenes 3D es uno de la parte de torre y la parte de plato, y el aparato de formación de imágenes 2D está en la otra de la parte de torre y la parte de plato. 59. Estación de escaneado, según la reivindicación 57, en la que el aparato de formación de imágenes 3D y el aparato de formación de imágenes 2D están ambos en una de la parte de torre y la parte de plato. 60. Estación de escaneado, según la reivindicación 57, que comprende, además, un plato de peso dentro de la parte de plato, estando configurado el plato de peso para medir, mediante un módulo de pesaje, un peso de un objeto colocado en el plato de peso, teniendo el plato de peso una superficie de pesaje, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, a partir de los datos de imagen 3D, una posición del objeto relativa al plato de peso;y en respuesta a que la posición del objeto relativa al plato de peso esté en una posición de fallo de plato de peso, modifique el funcionamiento del módulo de pesaje de un primer estado a un segundo estado, hasta que se cumpla una condición de liberación. 61. Estación de escaneado, según la reivindicación 60, en la que el primer estado del módulo de pesaje permite informar del peso del objeto colocado en el plato de peso, y en la que el segundo estado del módulo de pesaje impide informar del peso del objeto colocado en el plato de peso. 62. Estación de escaneado, según la reivindicación 60, en la que la posición de fallo de plato de peso comprende una posición sobresaliente, donde por lo menos una parte del objeto sobresale del plato de peso. 63. Estación de escaneado, según la reivindicación 60, en la que la posición de fallo de plato de peso comprende una posición suspendida, donde el objeto está suspendido, por lo menos parcialmente, sobre el plato de peso. 64. Estación de escaneado, según la reivindicación 52, que comprende, además, un plato de peso dentro de la parte de plato, estando configurado el plato de peso para medir, mediante un módulo de pesaje, un peso de un objeto colocado en el plato de peso, teniendo el plato de peso una superficie de pesaje, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: detecte, a partir de los datos de imagen 3D, que una mano del operario está en contacto con el objeto; y en respuesta a una detección de que la mano del operario está en contacto con el objeto, modifique el funcionamiento del módulo de pesaje de un primer estado a un segundo estado, hasta que se cumpla una condición de liberación. 65. Estación de escaneado, que comprende: un aparato de formación de imágenes 2D configurado para capturar una imagen 2D de un objeto en un campo de visión del aparato de formación de imágenes 2D y generar datos de imagen 2D a partir de la imagen 2D; un aparato de formación de imágenes 3D configurado para capturar una imagen 3D del objeto en un campo de visión del aparato de formación de imágenes 3D y generar datos de imagen 3D a partir de la imagen 3D; y un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: compare los datos de imagen 3D con los datos de imagen 2D y lleve a cabo un proceso de autenticación en el objeto. 66. Estación de escaneado, según la reivindicación 65, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine una primera identificación de objeto del objeto utilizando los datos de imagen 2D; determine una segunda identificación de objeto del objeto utilizando los datos de imagen 3D; y compare la primera identificación del objeto con la segunda identificación del objeto y determine (a) un escaneado apropiado del objeto cuando la primera identificación del objeto coincide con la segunda identificación del objeto y (b) un escaneado inapropiado del objeto cuando la primera identificación del objeto no coincide con la segunda identificación del objeto. 67. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la primera identificación de objeto del objeto utilizando los datos de imagen 2D, mediante: identificar un código de barras para el objeto en los datos de imagen 2D; y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. 68. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, demás, instrucciones que, cuando se ejecutan, hacen que el procesador determine la primera identificación de objeto del objeto utilizando los datos de imagen 2D, mediante: proporcionar los datos de imagen 2D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la primera identificación de objeto del objeto. 69. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, mediante: proporcionar los datos de imagen 3D a un modelo de reconocimiento de objetos entrenado; y producir, utilizando el modelo de reconocimiento de objetos entrenado, la segunda identificación de objeto del objeto. 70. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador, antes de determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D: compare los datos de imagen 3D con los datos de imagen 2D; y elimine características del entorno fuera del objeto de los datos de imagen 2D basándose en los datos de imagen 3D. 71. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador, antes de determinar la segunda identificación de objeto del objeto utilizando los datos de imagen 3D: compare los datos de imagen 3D con los datos de imagen 2D; y elimine características del entorno fuera del objeto de los datos de imagen 3D basándose en los datos de imagen 2D. 72. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, demás, instrucciones que, cuando se ejecutan, hacen que el procesador determine la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, mediante: determinar una o varias características de color del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características de color. 73. Estación de escaneado, según la reivindicación 72, en la que las una o varias características de color comprenden un color del objeto. 74. Estación de escaneado, según la reivindicación 72, en la que las una o varias características de color comprenden un gradiente de color del objeto. 75. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador determine la segunda identificación de objeto del objeto utilizando los datos de imagen 3D, mediante: determinar una o varias características geométricas del objeto a partir de los datos de imagen 3D; y determinar la segunda identificación del objeto a partir de las una o varias características geométricas. 76. Estación de escaneado, según la reivindicación 75, en la que determinar la primera identificación de objeto del objeto utilizando los datos de imagen 2D comprende: identificar un código de barras para el objeto en los datos de imagen 2D; y descodificar el código de barras para generar datos de carga útil de código de barras y determinar la primera identificación del objeto a partir de los datos de carga útil de código de barras. 77. Estación de escaneado, según la reivindicación 76, en la que los datos de imagen 3D incluyen una nube de puntos que comprende una pluralidad de puntos de datos, teniendo cada uno de los puntos de datos un valor de distancia asociado con una distancia desde el aparato de formación de imágenes 3D, y en el que determinar las una o varias características geométricas del objeto a partir de los atos de imagen 3D se basa en un primer subconjunto de los datos de imagen 3D y no se basa en un segundo subconjunto de los datos de imagen 3D, estando asociado el primer subconjunto de los datos de imagen 3D con un primer subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde el aparato de formación de imágenes 3D dentro de un intervalo predeterminado, estando asociado el segundo subconjunto de los datos de imagen 3D con un segundo subconjunto de los puntos de datos que tienen el valor de distancia respectivo asociado con la distancia desde el aparato de formación de imágenes 3D fuera del intervalo predeterminado. 78. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador, en respuesta a determinar (a) el escaneado apropiado del objeto, procese un registro de transacciones para incluir los datos asociados con el objeto, y en respuesta a determinar (b) el escaneado inapropiado del objeto, por lo menos uno de (i) genere una alerta adecuada para señalizar un potencial evento de robo, y (ii) procese el registro de transacciones para no incluir los datos asociados con el objeto. 79. Estación de escaneado, según la reivindicación 66, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, a partir de los datos de imagen 3D, una dirección de escaneado del objeto relativa al aparato de formación de imágenes 2D; y en respuesta a que la dirección de escaneado es una dirección de escaneado inapropiada, impida la captura de la imagen 2D por el aparato de formación de imágenes 2D, hasta que se cumpla una condición de liberación. 80. Estación de escaneado, según la reivindicación 65, en la que el objeto es un producto, y en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, como una primera identificación de objeto del objeto utilizando los datos de imagen 2D, uno o varios colores del objeto; determine, como una segunda identificación de objeto del objeto utilizando los datos de imagen 3D, una forma o dimensión del objeto; y compare la primera identificación del objeto con la segunda identificación del objeto y etermine un tipo del producto. 81. Estación de escaneado, según la reivindicación 65, en la que el objeto es un producto, y en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, como una primera identificación de objeto del objeto utilizando los datos de imagen 2D, uno o varios colores del objeto; determine, como una segunda identificación de objeto del objeto utilizando los datos de imagen 3D, una forma o dimensión del objeto; y compare la primera identificación del objeto con la segunda identificación del objeto y determine un listado de tipos potenciales del producto; y presente el listado a un usuario de la estación de escaneado para su selección. 82. Estación de escaneado, según la reivindicación 65, en la que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: determine, como una primera identificación de objeto del objeto utilizando los datos de imagen 2D, una presencia de un código de barras parcialmente descodificable y determine un listado de coincidencias de objeto potenciales a partir del código de barras parcialmente descodificable; determine, como una segunda identificación de objeto del objeto utilizando los datos de imagen 3D, una forma o dimensión del objeto; y compare la primera identificación del objeto con la segunda identificación del objeto y determine si una o varias del listado de coincidencias de objeto potenciales corresponden a la forma o a la dimensión indicadas en la segunda identificación del objeto a partir de los datos de imagen 3D. 83. Estación de escaneado, que comprende: un aparato de formación de imágenes bidimensionales (2D) configurado para capturar una imagen 2D de un objeto en un campo de visión (FOV) del aparato de formación de imágenes 2D y para identificar un código de barras en la imagen 2D para identificar el objeto a partir de la carga útil de código de barras; un aparato de formación de imágenes 3D configurado para capturar una imagen 3D del objeto en un FOV del aparato de formación de imágenes 3D y generar datos de imagen 3D a partir de la imagen 3D; y un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: capture la imagen 3D del objeto y genere los datos de imagen 3D; identifique una o varias características de objeto 3D del objeto a partir de los datos de imagen 3D; y lleve a cabo uno de (a) entrenar un modelo de reconocimiento de objetos con los datos de imagen 3D, o (b) reconocimiento de objetos utilizando los datos de imagen 3D. 84. Sistema, que comprende: un aparato de formación de imágenes bidimensionales (2D) que tiene un primer campo de visión (FOV) y está configurado para capturar una imagen 2D de un primer entorno que aparece dentro del primer FOV, almacenándose la imagen 2D como datos de imagen 2D correspondientes a la imagen 2D; un aparato de formación de imágenes tridimensionales (3D) que tiene un segundo FOV que se superpone por lo menos parcialmente con el primer FOV, estando configurado el aparato de formación de imágenes 3D para capturar una imagen 3D de un segundo entorno que aparece dentro del segundo FOV, almacenándose la imagen 3D como datos de imagen 3D correspondientes a la imagen 3D; y un procesador y una memoria que almacena instrucciones que, cuando se ejecutan, hacen que el procesador: identifique una o varias características de imagen 3D dentro del segundo entorno a partir de los datos de imagen 3D; mejore los datos de imagen 2D, dando como resultado datos de imagen 2D mejorados, mediante correlacionar las una o varias características de imagen 3D con por lo menos una o varias características de imagen 2D en los datos de imagen 2D; y procese los datos de imagen 2D mejorados para por lo menos uno de (a) descodificar un código de barras capturado dentro de los datos de imagen 2D mejorados, (b) entrenar un modelo de reconocimiento de objetos con los datos de imagen 2D mejorados, (c) reconocer un objeto dentro de los datos de imagen 2D mejorados, y (d) identificar una acción llevada a cabo por un operario del lector de códigos de barras. 85. Sistema, según la reivindicación 84, en el que los datos de imagen 3D comprenden atos de nube de puntos 3D y las una o varias características de imagen 3D incluyen una o varias características geométricas de un objeto presentado dentro del segundo FOV. 86. Sistema, según la reivindicación 84, en el que los datos de imagen 3D comprenden datos de nube de puntos 3D y las una o varias características de imagen 3D incluyen un color o una gradación de color correspondientes a un objeto presentado dentro del segundo FOV. 87. Sistema, según la reivindicación 84, en el que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador identifique las una o varias características de imagen 3D identificando las una o varias características de imagen 3D que están posicionadas dentro de un intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D. 88. Sistema, según la reivindicación 87, en el que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador mejore los datos de imagen 2D filtrando las por lo menos una o varias características de imagen 2D de modo que procesar los datos de imagen 2D mejorados excluye procesar datos de imagen asociados con las por lo menos una o varias características de imagen 2D. 89. Sistema, según la reivindicación 87, en el que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador mejore los datos de imagen 2D filtrando las por lo menos una o varias características de imagen 2D de modo que procesar los datos de imagen 2D mejorados se limita a procesar los datos de imagen asociados con las por lo menos una o varias características de imagen 2D. 90. Sistema, según la reivindicación 87, que comprende, además, un lector de códigos de barras estacionario configurado para ser posicionado dentro de una estación de trabajo y manejado por el operario, en el que el intervalo de distancia predeterminado fuera del aparato de formación de imágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta un borde de la estación de trabajo próximo al operario. 91. Sistema, según la reivindicación 87, que comprende, además, un lector de códigos de barras bióptico que tiene una zona de escaneado de producto, en el que el intervalo de distancia predeterminado fuera del aparato de formación de mágenes 3D se extiende desde el aparato de formación de imágenes 3D hasta el límite distal de la zona de escaneado de producto. 92. Sistema, según la reivindicación 84, en el que las una o varias características de imagen 3D incluyen por lo menos una de (i) por lo menos una parte de una mano del operario, y (ii) un objeto agarrado por la mano del operario. 93. Sistema, según la reivindicación 84, en el que la memoria almacena, además, instrucciones que, cuando se ejecutan, hacen que el procesador: procese los datos de imagen 2D mejorados identificando la acción llevada a cabo por el operario; en respuesta a identificar la acción llevada a cabo por el operario como una de presentar un objeto dentro de una zona de escaneado de producto y presentar el objeto próximo a la zona de escaneado de producto y, en respuesta, además, a que no se detecta ningún código de barras dentro de por lo menos uno de los datos de imagen 2D y los datos de imagen 2D mejorados, genere una alerta adecuada para señalizar un potencial evento de robo.

Publicaciones:
ES2967105 (26/04/2024) - A2 Solicitud de patente sin informe sobre el estado de la técnica
Eventos:
En fecha 27/02/2024 se realizó Registro Instancia de Solicitud
En fecha 29/02/2024 se realizó Admisión a Trámite
En fecha 29/02/2024 se realizó 1001P_Comunicación Admisión a Trámite
En fecha 05/03/2024 se realizó Superado examen de oficio
En fecha 26/04/2024 se realizó Publicación Solicitud
En fecha 26/04/2024 se realizó Publicación Folleto Solicitud (A2)
En fecha 06/05/2024 se realizó PETEX_Petición de examen sustantivo
Pagos:
26/02/2024 - Pago Tasas IET

Fuente de la información

Parte de la información aquí publicada es pública puesto que ha sido obtenida de la Oficina de Propiedad Industrial de los diferentes países el 14/05/2024 y por lo tanto puede ser que la información no esté actualizada.

Parte de la información aquí mostrada ha sido calculada por nuestro sistema informático y puede no ser veraz.

Privacidad

Si considera que al información aquí publicada afecta a su privacidad y desea que eliminemos la información aquí publicada envíe un email a info@patentes-y-marcas.com o rellene el formulario que encontrará aquí.

Información sobre el registro de patente nacional por LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D con el número P202430139

El registro de patente nacional por LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D con el número P202430139 fue solicitada el 27/05/2021. Se trata de un registro en España por lo que este registro no ofrece protección en el resto de países. El registro LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D con el número P202430139 fue solicitada por ZEBRA TECHNOLOGIES CORPORATION mediante los servicios del agente DURAN-CORRETJER, S.L.P. El registro [modality] por LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D con el número P202430139 está clasificado como G06K 19/00 según la clasificación internacional de patentes.

Otras invenciones solicitadas por ZEBRA TECHNOLOGIES CORPORATION

Es posible conocer todas las invenciones solicitadas por ZEBRA TECHNOLOGIES CORPORATION entre las que se encuentra el registro de patente nacional por LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D con el número P202430139. Si se desean conocer más invenciones solicitadas por ZEBRA TECHNOLOGIES CORPORATION clicar aquí.

Otras invenciones solicitadas en la clasificación internacional de patentes G06K 19/00.

Es posible conocer invenciones similares al campo de la técnica se refiere. El registro de patente nacional por LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D con el número P202430139 está clasificado con la clasificación G06K 19/00 por lo que si se desea conocer más registros con la clasificación G06K 19/00 clicar aquí.

Otras invenciones solicitadas a través del representante DURAN-CORRETJER, S.L.P

Es posible conocer todas las invenciones solicitadas a través del agente DURAN-CORRETJER, S.L.P entre las que se encuentra el registro patente nacional por LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D con el número P202430139. Si se desean conocer más invenciones solicitadas a través del agente DURAN-CORRETJER, S.L.P clicar aquí.

Patentes en España

Es posible conocer todas las invenciones publicadas en España entre las que se encuentra el registro patente nacional por LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D. Nuestro portal www.patentes-y-marcas.com ofrece acceso a las publicaciones de patentes en España. Conocer las patentes registradas en un país es importante para saber las posibilidades de fabricar, vender o explotar una invención en España.

Patentes registradas en la clase G

Es posible conocer todas las patentes registradas en la clase G (FISICA) entre las que se encuentra la patente LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D con el número P202430139. Conocer las patentes registradas en una clase es importante para saber las posibilidades de registrar una patente en esa misma clase.

Patentes registradas en la clase G06

Es posible conocer todas las patentes registradas en la clase G06 (COMPUTO; CALCULO; CONTEO) entre las que se encuentra la patente LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D con el número P202430139. Conocer las patentes registradas en una clase es importante para saber las posibilidades de registrar una patente en esa misma clase.

Patentes registradas en la clase G06K

Es posible conocer todas las patentes registradas en la clase G06K (RECONOCIMIENTO DE DATOS; PRESENTACION DE DATOS; SOPORTES DE REGISTROS; MANIPULACION DE SOPORTES DE R) entre las que se encuentra la patente LECTORES DE CÓDIGOS DE BARRAS CON UNA O VARIAS CÁMARAS 3D con el número P202430139. Conocer las patentes registradas en una clase es importante para saber las posibilidades de registrar una patente en esa misma clase.

¿Tienes alguna duda?
Escribe tu consulta y te responderemos rápida y gratuitamente.
Otras patentes similares
imagen
country P202430201
Fecha solicitud 20/03/2024

Profesionales Recomendados

Facts