Control de calidad en productos lácteos envasados con Deep Learning-2

Destacado

Tiempo de lectura: 4 minutos

Productos lácteos envasados, su inspección y el control de calidad se puede optimizar y mejorar con las nuevas soluciones de visión y inteligencia artificial basada en Deep Learning.

En este post comentaremos las aplicaciones más interesantes para la Inspección y control de calidad de productos lácteos envasados. También se resumirán otras aplicaciones que ayudan al control de empaquetado, trazabilidad, logística y expedición de productos lácteos.

Puedes leer la primera parte de este blog en Inspección y control de calidad en productos lácteos-Parte 1

Inspección y control de calidad de producto lácteo envasado.

Una vez envasado y antes de pasar a las siguientes fases de empaquetado es muy recomendable realizar algún tipo de inspección y control para sacar de la línea de producción cuanto antes los productos lácteos envasados que no cumplan con los estándares de calidad marcados.

En la siguiente imagen podemos ver como gracias a una aplicación de control de taponado con Deep Learning se pueden detectar los defectos en el cierre de estos tetrabriks antes de pasar al proceso de grupaje en packs.

Inspección de productos lácteos envasados para control de tapones con tecnología de visión artificial y Deep Learning
Inspección de tapones con tecnología de visión artificial y Deep Learning

Son comunes también las aplicaciones de visión artificial para la inspección del sello de seguridad, pudiendo detectar defectos como presencia o ausencia de sello además de defectos del tipo sello mal posicionado, mal cerrado o con burbujas.

Siguiendo con el control de productos lácteos envasados también se realizan habitualmente aplicaciones para controlar e inspeccionar si el producto está correctamente termosellado.

En la siguiente imagen podemos ver una aplicación realizada con Deep Learning y con la herramienta Analize de Cognex para la inspección del termosellado de yogures. En este caso, una vez más, la utilización de la tecnología Deep Learning permite absorber la gran variabilidad de defectos posible en el termosellado y permite dar una solución robusta para asegurar el correcto termosellado.

Aplicación Inteligencia artificial para control de termosellado en cualquier producto lácteo envasado

La inspección de etiquetas, posicionamiento, correspondencia de etiqueta, control de alérgenos, etc. también son aplicaciones posibles mediante visión artificial.

Inspección de empaquetado o grupaje en packs de productos lácteos envasados, por ejemplo briks

La siguiente aplicación basada en Deep Learning inspecciona el empaquetado de briks. En este caso los algoritmos de aprendizaje profundo Deep Learning permiten a la aplicación ir aprendiendo por si misma las diferentes casuísticas de errores, afinando cada vez más la correcta detección de defectos. La aplicación detecta si falta algún brik, si hay algún brik pinzado o deformado o errores más complejos como si está mal colocado o incluso volteado.

La aplicación detecta mediante inteligencia artificial el correcto empaquetado de briks y de cualquier otro producto lácteo envasado.

En cuanto a trazabilidad de producto existen aplicaciones para:

Clasificación de productos lácteos envasados basada en imagen.

Diferenciación de productos lácteos envasados mediante Deep Learning., en este caso diferenciación de botellas de batidos.

Lectura de códigos complejos y en líneas de alta velocidad.

Lectores de código en líneas leyendo códigos de alta velocidad sobre productos lácteos envasados.

Lectura de caracteres OCR, fecha y lote de producto.

Una vez más la aparición de Deep Learning ha servido de palanca para mejorar los resultados de lecturas OCR complejas, con caracteres doblados, mal impresos, o en superficies brillantes reflectante o muy flexibles.

En la siguiente imagen se pueden observar los resultados de lecturas OCR complejas con Deep Learning, confirmando que gracias a esta nueva tecnología ahora es posible la lectura de caracteres complicados de leer con visión artificial convencional.

Ejemplos de lecturas OCR con Deep Learning sobre impresiones OCR de códigos torcidos, doblados, mal impresos, en superficies reflectantes de productos lácteos envasados.

Finalmente llegamos a las etapas finales del proceso de producción con el encajado de producto, el paletizado y la expedición. En estas etapas, la visión artificial también puede resultar de gran utilidad para automatizar y asegurar la calidad de los productos.

En la siguiente imagen podemos ver una aplicación mediante visión 3D para el control de encajado de yogures.

La imagen con la reconstrucción 3D de la caja permite detectar si falta o está mal colocado alguno de los productos. Es tipo de aplicación también seria aplicable para comprobar la correcta conformidad de un pallet.

Inspección 3D de presencia o ausencia de producto lácteos envasados en cajas y pallets

A nivel de automatización de paletizado y despaletizado también existen interesantes soluciones en función de la tipología de producto y las características concretas del paletizado. Mediante reconstrucciones 3D y robots es posible automatizar el paletizado y despaletizado de productos.

Paletizado y despaletizado automatizado de cajas con productos lácteos envasados mediante robot y visión artificial

Una vez montado y retractilado los pallets, mediante visión artificial es posible optimizar la lectura de múltiples códigos en un mismo pallet y/o asegurar las lecturas correctas de códigos o etiquetas cubiertos con materiales brillantes o reflectantes.

Las diferentes soluciones que existen en lectores de códigos industriales para la identificación y trazabilidad industrial permiten también ofrecer soluciones para la gestión de inventario y la distribución final de productos.

Si quieres saber más sobre soluciones para el sector lácteo y/o para el sector de la alimentación en general puede visitar nuestra web visión artificial para la industria de alimentación y bebidas.

¡Si te gusta el artículo, compártelo!

Control de calidad en productos lácteos con Deep Learning-1

Destacado

Tiempo de lectura: 5 minutos

Visión artificial y Deep Learning para el control de calidad de productos lácteos. Inspección de yogures, flanes, botellas de leche, mantequillas, quesos y otros productos lácteos.

La inteligencia artificial y las tecnologías basadas en Deep Learning irrumpen en numerosos ámbitos de nuestras vidas.

En el sector industrial son muchas los sectores y compañías que ya están trabajando con tecnologías de visión artificial basadas en Deep Learning para dar solución a aplicaciones, antes imposibles de resolver con la visión artificial convencional.

Estas nuevas tecnologías no son ajenas a uno de los sectores más estratégicos de nuestro país, el sector lácteo y de productos derivados.

Son muchas las compañías productoras de leche, postres lácteos, yogures y batidos, quesos, mantequillas y otros productos derivados que ya están apostando por introducir soluciones de visión artificial y soluciones Deep Learning para el control de sus productos lácteos. Consiguiendo ser más competitivas y realizando innovadores controles de calidad sobre sus productos.

Cabe destacar que se pueden realizar inspecciones de producto en las diferentes etapas de producción para el control de calidad en productos lácteos.

  • Inspección y control de calidad de producto lácteo
  • Control de calidad en productos lácteos Inspección y control en el envase antes del llenado.
  • Control de calidad en productos lácteosInspección y control del envase una vez lleno.
  • Control de calidad en productos lácteosInspección y control del producto final envasado.

A continuación, te mostramos algunas de las aplicaciones más demandas para el control de calidad de productos lácteos.

Dentro de las aplicaciones de visión artificial y Deep Learning que se realizar para inspeccionar el producto o materia prima encontramos soluciones para detectar contaminación cruzada.  

La detección de contaminación cruzada o cuerpos extraños suele ser común en el sector de la alimentación y en los productos lácteos. Se pueden utilizar diferentes tipos de tecnologías dependiendo de las características de cada aplicación. Existen aplicaciones resueltas con cámaras de visión 2D, con cámaras hiperespectrales y las más novedosas mediante aplicaciones basadas en Deep Learning. En la siguiente imagen podemos ver unas imágenes procesadas con algoritmos Deep Learning en las cuales se detectan trozos de plástico (del propio envase) entre unas muestras de un producto lácteo como puede ser el queso rallado.

La aplicación de visión artificial basada en deep learning detecta trozos de plástico en una muestra de queso rallado.

En este caso el entrenamiento mediante Deep Learning permite el desarrollo de la aplicación de una manera mucho más ágil y con mejores garantías que la visión artificial convencional basada en patrones.

Otra de las aplicaciones más comunes sobre la materia prima es el control de calidad basado en volúmenes o mediciones de alta precisión.

Un ejemplo de este tipo de aplicación es el control de volumen sobre piezas de queso. Mediante visión artificial se pueden realizar mediciones de diámetro, altura e incluso automatizar el corte de una pieza de queso en barra para obtener porciones con un peso fijo predefinido.

Además de las inspecciones sobre el producto o materia prima, en todo el sector de la alimentación se suelen realizar inspecciones y control de calidad de tarrinas antes de su llenado.

Entre las más comunes está la verificación de la integridad de la tarrina o envase vacío.

La siguiente imagen es una muestra de ello. Esta aplicación de visión artificial permite detectar defectos en los envases de unos flanes. En este caso se detectan golpes o deformidades del envase además de realizar un control sobre el grosor del envase. La aplicación nos identifica el envase como ok, apto para su lleno, o no OK, envase defectuoso.

Control de integridad  de tarrinas alimentarias.

En el siguiente ejemplo se muestra una aplicación para la detección de defectos y roturas en tarros de vidrio. Esta aplicación está desarrollada con el Software Vision Pro Deep Learning de Cognex y utiliza la herramienta de análisis Analyze.

Detección de defectos y roturas en tarros de vidrio con visión artificial

Detección de cuerpo extraños en envase vacío y tarrinas.

Tal y como podemos ver en la siguiente imagen también es común realizar inspecciones para detectar cuerpos extraños en el envase antes de realizar el llenado o la dosificación de producto. En este caso en la imagen podemos ver una aplicación también basada en Deep Learning para la detección de pelos u otros cuerpos extraños en el interior de un envase de postres lácteos.

Solución para detectar cuerpos extraños en envases alimentarios

Gracias a los nuevos algoritmos de visión artificial basados en Deep Learning se puede absorber la gran variabilidad posible (trozos de plástico del propio envase, pelos, insectos, etc.)  en la detección de estos cuerpos extraños. La robustez de este tipo de inspecciones se ha visto beneficiadas con la aparición de las opciones Deep Learning.

Durante el proceso de llenado y dosificación se suelen instalar aplicaciones de control por visión artificial para:

 – visión artificial para asegurar niveles de llenado-dosificación

– detección de defectos estéticos en el producto.

En este caso las posibilidades son muy amplias y depende de la tipología del producto y de las necesidades del cliente. Ejemplo: Inspección de flanes para verificar la correcta posición de galleta y la ausencia de roturas o defectos de forma.  

Inspección de flanes para verificar la correcta posición de galleta y la ausencia de roturas o defectos de forma.

En este caso la aplicación de visión artificial inspecciona la galleta colocada sobre la natilla o flan para detectar su correcta posición, grietas, roturas o cualquier otro defecto que no esté contemplado como producto ok. Este tipo de aplicación es extensible a el control de presencia y ausencia y/o distribución de cualquier tipo de topping sobre producto alimentario.

-Control de horneado y tostado en flanes, natillas u otros productos lácteos.

Otra de las interesantes aplicaciones para el sector de alimentación y productos lácteos que es ahora posible gracias al Deep Learning es el control del horneado.Con este tipo de aplicaciones es posible clasificar el producto como bueno o malo en función del nivel de tostado desde una perspectiva estética.  El cliente podrá entrenar la aplicación Deep Learning para definir en cada caso que se considera un tostado aceptable, dentro de los parámetros que le interesan en cada caso.

La primera y la segunda imagen muestran un tostado u horneado correcto, parámetro marcado por el cliente. La tercera imagen, ha sido clasificada como tostado excesivo por parte del cliente por lo que el sistema clasifica la imagen como defectuosa. Todas las imágenes que muestren un tostado similar serán clasificadas también como defectuosas.

Flanes con diferentes niveles de tostado analizados con visión artificial

Por último y para reducir los productos defectuosos durante la fase de envasado, muchas empresas realizan una nueva inspección de las tarrinas justo antes del proceso de termosellado. El objetivo de esta inspección es asegurar que no existe producto o cuerpos extraños en el área de sellado. De esta forma se consigue asegurar y reducir el número de mermas después de esta fase de termosellado.

Inspección en área de sellado o termosellado.

Detección de defecto en zona de termosellado de flanes

En este caso la aplicación detecta natilla o producto en un área comprometida para el correcto termosellado del producto.

En el siguiente post comentaremos las aplicaciones más interesantes para la Control de calidad de productos lácteos envasados, además de aplicaciones que ayudan al control del empaquetado, la trazabilidad, la logística y expedición de productos.


¡Si te gusta el artículo, compártelo!

Visión industrial 3D en movimiento

Destacado

Tiempo de lectura: 6 minutos

Photoneo presentó a finales del 2020 una la tecnología visión 3D industrial en movimiento, sin comprometer la calidad y la velocidad.

La visión industrial 3D en movimiento ha planteado un gran desafío para los desarrolladores de sistemas de visión 3D, ya que ninguna de las tecnologías de detección 3D existentes ha podido superar por completo sus propias limitaciones. Al optar por un método u otro, el cliente siempre se ha quedado con un compromiso entre la calidad y la velocidad del dispositivo.

Photoneo inventó una nueva tecnología llamada Parallel Structured Light, que utiliza luz estructurada en combinación con un sensor de imagen CMOS de obturador de mosaico patentado para capturar objetos en movimiento con alta calidad y poder obtener una visión industrial 3D en movimiento con precisión y alta resolución. El sensor consta de bloques de superpíxeles que se dividen en subpíxeles. El láser procedente de un proyector de luz estructurada está encendido todo el tiempo, mientras que los píxeles individuales se encienden y apagan repetidamente.

La gran limitación, hasta ahora, del método de luz estructurada es que la cámara captura secuencialmente los patrones codificados por el proyector y, dado que la adquisición de imágenes de una superficie 3D requiere varios fotogramas, no se puede utilizar para objetos dinámicos o mientras el sensor está en movimiento la salida estaría distorsionada

Esta nueva tecnología sobre visión artificial industrial 3D en movimiento, permite la captura de una escena dinámica sin desenfoque, reconstruyendo su imagen 3D a partir de una sola toma del sensor. Esto significa que “paraliza” la escena para adquirir múltiples imágenes de luz estructurada y obtener una instantánea de alta calidad del objeto en movimiento.

Photoneo implementó esta tecnología en la cámara 3D, MotionCam-3D.

Características:

  • Tecnología patentada en el interior en forma de sensor CMOS novedoso.
  • Escaneo de área de objetos en movimiento a 144 km/h.
  • Resistente a vibraciones y luz ambiental sin producir distorsiones o adquisiciones rotas.
  • Máxima resolución y precisión de escaneo 3D de escenas dinámicas .
  • Alto nivel de detalle en los bordes, sin bordes borrosos para objetos que se mueven hasta 40 m/s.
  • Ultra alta densidad, nube de puntos con una resolución de 0,9 Mpx igual a 2 Mpx en el modo para escenas estáticas.
  • Potencia computacional, proporciona 15 millones de puntos 3D por segundo.
  • Alcance de escaneo inigualable desde 36 cm hasta 3 m.
  • Fácil configuración, ahorro de recursos de PC y un rango de escaneo incomparable.
  • Dispositivo listo para la industria con IP65, PoE y calibración térmica.

Parallel Structured Light

Aporta la calidad y la resolución de vanguardia del escaneo de luz estructurada en la reconstrucción 3D de escenas altamente dinámicas. Esta novedosa tecnología patentada sobre visión industrial 3D en movimiento, utiliza un diseño de sensor inteligente que realiza la adquisición en una instantánea, en lugar del escaneo secuencial de un sensor de imagen estándar. Esto significa que el método de luz estructurada en paralelo prácticamente congela la escena 3D en el tiempo.

Hardware Trigger y conexión en cadena

Es posible configurar varias cámaras MotionCam-3D para que funcionen sincrónicamente utilizando la función de activación del disparo con el hardware y salidas GPIO. Esta configuración requiere cables especiales proporcionados a pedido, ya que el cable de alimentación estándar contiene solo 2 cables para la entrada de energía. En esta configuración, cada cámara activa el disparo de la siguiente, una vez que ha realizado su propia captura, creando un disparo en secuencia.

Resoluciones de escaneo

MotionCam-3D utiliza un sensor CMOS personalizado y estructurado en paralelo con una tecnología de luz para producir nubes de puntos 3D de objetos escaneados.

En el caso de los escáneres PhoXi 3D, la medición de profundidad se logra mediante la proyección de patrones de luz estructurada. De esta manera el escáner mide un punto 3D correspondiente a cada píxel del sensor de imagen.

MotionCam-3D no se basa en patrones de luz estructurados, en su lugar, utiliza barridos láser para la iluminación. El sensor CMOS puede usar diferentes esquemas de subpíxeles para simular diferentes patrones de luz estructurada.

Los diferentes esquemas de subpíxeles contribuyen a un único punto 3D (medida única).

El modo de subpíxeles (la forma en que se mide cada punto 3D) está controlado por el parámetro Resolución. Hay 7 diferentes modos numerados del 0 al 6. Los introducimos en un orden arbitrario para mayor claridad.

Requisitos del sistema

Asegúrese de que su ordenador cumpla con los requisitos mínimos del sistema para operar la MotionCam-3D. PhoXi Control funciona solo en sistemas operativos de 64 bits, Windows 10 o Ubuntu 16 son compatibles.

Modos de resolución

Modo de resolución 2 – Modo de escáner

El modo 2 cambia la cámara a un modo de escáner de alta resolución que se puede utilizar para escenas estáticas. En este modo, un punto 3D corresponde a un píxel en el sensor y todas las funciones de PhoXi Control se comportan de la misma forma que los escáneres.

El modo de escáner utiliza la resolución de trabajo completa del sensor de imagen: 1680 x 1200 píxeles. Por lo tanto, es capaz de producir casi 2 millones de puntos 3D.

Todos los demás modos permiten un rendimiento de la cámara de alto FPS con la capacidad de escanear objetos en movimiento. En los siguientes parámetros de escaneo no están disponibles cuando se selecciona cualquiera de los modos de cámara de alto FPS: Estrategia de codificación, Calidad de codificación y reconocimiento de Marker Space.

Modo de resolución 5 y 6 – Modos de cámara rápidos con distribución de puntos desigual

El modo 5 y el modo 6 producen un mapa de profundidad en una resolución de 560 x 800. La adquisición de fotogramas es más rápida en estos modos, pero los puntos 3D están distribuidos de forma desigual. Ver el diagrama de subpíxeles y la nube de puntos resultante de escaneando en la Figura 2.

El modo 5 y el modo 6 difieren en la estrategia de codificación. Modo 5 simula patrones de luz de la estrategia de codificación normal y el modo 6 simula los patrones de luz de las interreflexiones. Por la mayoría de las escenas, el Modo 6 produce una calidad superior exploraciones. El modo 5 se deja para fines de prueba.

Fig.1: El diagrama de subpíxeles del sensor y la nube de puntos resultante de una superficie plana escaneada en Modo 5 o 6.

Modo de resolución 3 y 4 – Modos de cámara rápidos con distribución uniforme de puntos

El modo 3 y el modo 4 son extensiones de los modos 5 y 6, respectivamente. Usan mediciones de sensores secundarios para calcular los puntos ubicados directamente entre los puntos. El mapa de profundidad resultante tiene la resolución de 1120 x 800. Las medidas secundarias se calculan en PhoXi Control. El modo 4 simula los patrones de luz con estrategia de codificación de interreflexiones y generalmente produce escaneos de mayor calidad.

Al capturar una escena dinámica, el Modo 4 es el recomendado ya que generalmente ofrece la mejor calidad resultados.

Fig.2: El diagrama de subpíxeles de los modos 3 y 4. Los puntos rojos son mediciones directas mientras que los puntos azules son secundarias. A la derecha está la nube de puntos resultante de un plano.

Modo de resolución 0 y 1- Modos de cámara con distribuciones de puntos regulares

Los modos 0 y 1 usan subpíxeles con el número más alto de mediciones directas para lograr la resolución del mapa de profundidad de 1120 x 800. La resolución que generalmente, produce es inferior a los Modos 3 y 4 debido a mayores requisitos computacionales, aumento de datos, velocidades de transferencia (~ 30 ms más lentas) y luz reducida, dando resultados de eficiencia con niveles de ruido más altos.

Fig.3: El diagrama de subpíxeles y la nube de puntos resultante de un plano en los modos 0 y 1.

Leer otro artículo y ver más vídeos de la Cámara MotionCam 3D.

¿Quieres leer más artículos sobre visión 2d y 3d?

Contactar con Bcnvision

¡Si te gusta el artículo, compártelo!

Visión artificial Deep Learning en vacunas | Soluciones Farmacéuticas

Destacado

Tiempo de lectura: 6 minutos

Los fabricantes de productos farmacéuticos trabajan a destajo para poder producir y distribuir la creciente demanda de vacunas en viales, ampollas y jeringuillas precargadas.

Para asegurar la calidad y una correcta logística, las farmacéuticas confían en sistemas de visión artificial para la lectura y verificación de códigos y visión artificial basada en Deep Learning para la inspección del envase y el embalaje, detectar defectos, grietas o roturas en viales, jeringuillas o agujas, contar los viales por caja o incluso el correcto ensamblaje en los blísters.

Ya sea para suministrar las vacunas habituales o para combatir la propagación de pandemias, las soluciones que Bcnvision ofrecen ayudan a las productoras farmacéuticas a cumplir las normativas estrictas, mientras garantizan un envío seguro, rápido y fiable.

ENVASE

Los envases de las vacunas deben comprobarse de forma meticulosa para evitar que los productos defectuosos lleguen a los consumidores. Los sistemas de visión artificial y Deep Learning inspeccionan un montaje correcto, buscan grietas, partículas, así como otros posibles defectos que pueden producirse durante el envasado. Identificar los problemas en fases iniciales contribuye a la seguridad de los pacientes y evita las costosas retiradas y devoluciones.

  • Inspección de la tapa, engarce y tapón del vial:

Los sistemas de visión artificial y Deep learning inspeccionan las tapas de los viales en busca de grietas, punciones y otros defectos para mejorar la calidad, reducir los desperdicios y aumentar la productividad.

  • Inspección del cuerpo de los viales y las ampollas:

La visión Deep Learning inspecciona el cuerpo de los viales y las ampollas en busca de defectos como grietas, burbujas e inclusiones que podrían provocar contaminación o el incumplimiento de la esterilidad.

  • Inspección de partículas:

La visión Deep Learning identifica las partículas no deseadas presentes en los viales de vidrio y las ampollas para evitar que los productos contaminados lleguen a los consumidores. 

  • Inspección de la lengüeta de apoyo de la jeringuilla:

La visión basada en Deep Learning identifica defectos como grietas y desconchados en las lengüetas de apoyo de las jeringuillas, a pesar de la variabilidad, transparencia y complejidad geométrica.

  • Inspección del protector de la aguja de la jeringuilla:

Los sistemas de visión In-Sight 8502P/5P inspeccionan y miden el lugar de protección de la aguja, la firmeza y otras características para garantizar que las jeringuillas se han montado de forma correcta.

  • Inspección del tapón del émbolo de la jeringuilla:

La visión basada en Deep Learning inspecciona los tapones en busca de bordes desgastados, líquido entre los bordes y pliegues derivados de la inserción del tapón en el cilindro de la jeringuilla. 

  • Inspección de la aguja de la jeringuilla:

Deep Learning detecta defectos sutiles en la punta biselada de las agujas de las jeringuillas para proteger la seguridad del paciente y garantizar la correcta administración de las vacunas.

  • Verificación del montaje de la aguja y la jeringuilla:

Deep Learning inspecciona los montajes de las jeringuillas y las agujas en busca de burbujas, grietas, de una incorrecta unión adhesiva de la aguja, problemas en el cono u otras inclusiones.

  • Inspección dimensional de la jeringuilla precargada:

Los sistemas de visión In-Sight 8502P/5P miden la longitud del cilindro, la longitud del émbolo, el grosor de la lengüeta, así como el diámetro interior y exterior del cilindro para garantizar que las jeringuillas cumplen las especificaciones.

  • Inspección de la tampografía de la jeringuilla precargada:

La visión Deep Learning inspecciona la impresión sobre la superficie curva y reflectante del cilindro de la jeringuilla e identifica los lugares en los que la tinta está demasiado gruesa, demasiado tenue o borrosa.

EMBALAJE

También es muy importante la inspección de los embalajes como viales, ampollas y jeringuillas precargadas sea correctos antes de su distribución. Si faltan componentes o hay defectos de envasado, se pueden ver afectadas la seguridad del paciente y la reputación de la marca, lo que puede conllevar multas considerables, residuos no deseados y retiradas costosas. La visión artificial confirma que las cajas y kits de vacunas estén envasados correctamente, que cumplan las normativas estrictas y ayuden a seguir y localizar a los proveedores para garantizar el período de uso de la máquina, las velocidades de lectura elevadas y el envío rápido.

  • Recuento de viales y ampollas:

La visión artificial Deep Learning elimina los desvíos relacionados con el recuento, lo que evita perder tiempo con costosos repasos que pueden derivarse de un mal recuento.

  • Verificación del montaje del juego de la vacuna:
  • Confirmación del prospecto para el paciente:

Con visión Deep Learning puedes localizar e identificar de forma fiable, la inserción en las cajas de vacunas, independientemente de la orientación y condiciones de iluminación, para evitar retiradas y garantizar la seguridad del paciente.

  • Inspección de la integridad del embalaje:

La visión basada en Deep Learning localiza, captura y clasifica sellados rotos o sin validez, sellados incorrectos u otras anomalías en distintas orientaciones para evitar la contaminación.

  • Inspección de la impresión del embalaje del juego de la vacuna:

La visión Deep Learning lee la información impresa sobre el embalaje y verifica la calidad de los elementos obligatorios, como los logotipos, fecha/información del lote y otros gráficos.

  • Lectura de códigos de barras de las vacunas:

Los lectores fijos de códigos de barras descifran códigos 1D y 2D para seguir y localizar el producto y ayudar a combatir las falsificaciones.

  • Verificación de códigos de barras de las vacunas:

Los verificadores de códigos de barras en línea ofrecen una verificación de acuerdo con las normas ISO, longitudinal o sin conexión, y generan informes detallados  para la trazabilidad, conformidad y mantenimiento preventivo.

ALMACENAMIENTO Y DISTRIBUCIÓN

Los distribuidores de vacunas confían en los lectores de códigos de barras para seguir y localizar productos a lo largo de la cadena de suministro y garantizar que los pedidos de vacunas lleguen de forma rápida y eficaz a su destino previsto. Los pedidos extraviados, entregados equivocadamente o con retraso pueden afectar a la eficacia de la vacuna y pueden conllevar devoluciones y el desperdicio de productos. Los lectores de códigos de barras realizan un seguimiento de las vacunas desde el fabricante hasta el punto de venta para garantizar una entrega correcta y puntual y para ayudar a evitar que los consumidores reciban productos falsificados.

  • Almacenamiento y distribución en cadena de frío:

Los lectores fijos de códigos de barras basados en la captura de imágenes de Cognex reducen el contacto con el embalaje mientras envían las vacunas y los medicamentos perecederos de forma rápida.

  • Planificación de ruta de las cajas:

Los lectores fijos desvían de forma fiable las cajas hacia la ruta o zona correcta a pesar del desgaste, daño, colocación u orientación del código de barras.

  • Verificación de etiquetas:

Los lectores y verificadores de códigos de barras garantizan que todas las etiquetas de envío estén impresas y debidamente colocadas con toda la información para la trazabilidad durante todo el recorrido.

  • Clasificación de paquetes:

Los túneles de lectura de códigos de barras con 5 dispositivos clasifican y envían de forma correcta los paquetes a su destino final con un retraso mínimo.

  • Procesamiento de entrada:

Los lectores de códigos de barras descifran de forma fiable los códigos de los paquetes para recibir, desembalar y planificar la ruta de los envíos entrantes de forma eficaz.

En este vídeo de nuestro Canal de Youtube podrán ver todas estas aplicaciones:

¿Quieres saber más sobre la visión Deep Learning? haz click en este enlace.

Si necesitas más información contacta con Bcnvision- Visión Artificial Industrial

¡Si te gusta el artículo, compártelo!

CORTEX, software de Bcnvision

Destacado

Tiempo de lectura: 3 minutos

Cortex incluye todo lo necesario para poder disponer de un sistema de visión flexible con cámaras 2D y visión 3D bajo pc y win10 profesional.

Cortex se encarga de procesar la información visual extraída de las cámaras y muestra los resultados de una forma más fácil y visual sin necesidad de conocer el entorno de programación. Tiene integradas, bajo licencias adicionales, diferentes librerías de visión para adaptarse a las necesidades de cada aplicación, incluyendo herramientas avanzadas Deep Learning para los sistemas más exigentes.

Está optimizado para trabajar con procesado en paralelo con capacidad de integrar hasta 16 dispositivos 2D o 3D, aprovechando todos los recursos del sistema y permitiendo, de forma adicional, la modificación de las herramientas de visión offline mientras el sistema está operativo al 100%.

Pantalla principal de Cortex

Existen unos módulos opcionales bajo pedido especifico:

  • CTX-SCD: El Scada permite, en la misma aplicación Cortex, integrar con el mismo protocolo de comunicación utilizado, enviar y recibir datos del PLC y gestionar el control de la maquina en una misma aplicación. Todas las variables del SCADA pueden ser parametrizadas mediante un fichero XML de configuración, sin programación alguna.
  • CTX-DB: El módulo de la BBDD permite obtener de forma rápida un resumen de la detección de los defectos encontrados en una o varios sistemas de visión. Permite visualizar porcentajes de rechazo de los diferentes defectos filtrando por lote o fechas.
  • Integra un servidor que centraliza los datos y que permite conexiones desde cualquier otro dispositivo de la red a través del navegador Chrome o Edge.
  • CTX-HYP: Módulo de integración de cámaras y sistemas Hyperspectrales.
Pantalla de detalles del sistema de visión

El sistema soporta las siguientes librerías:

A continuación, enumeramos los dispositivos que integrada Cortex:

  • Cognex
  • Flir
  • Basler
  • Matrox
  • Phontoneo
  • Smartray
  • RealSense

El software cubre todas las funcionalidades básicas tales como:

  • Trabajar de forma single device o multidispositvo realizando combinaciones avanzadas entre sistemas.
  • Sistema personalizable CustomView y AdvancedScript para mayor adaptación a funcionalidades especiales
  • Grabado de imágenes ok / no ok en .bcnImage y/o .bmp con o sin gráficos incluidos
  • Grabado de ficheros .csv con los resultados deseados
  • Posibilidad de integración del modulo estadístico CTX-DB para el control de producción
  • Visualización de contadores individuales
  • Visualización de contenedores globales
  • Edición de umbrales bajo contraseña
  • Deshabilitación de inspecciones bajo contraseña
  • Integración y visualización de imágenes 2D y 3D multimarca.
  • Visualización de gráficos de resultados
  • Process Affinity integrado a bloques del sistema para un mejor rendimiento
  • Visualizador de pdf (planos de cotas, manuales, etc..)
  • Edición de programas offline
  • Comunicaciones I/O digitales con el hardware específico
  • TCP/IP
  • UDP
  • FTP
  • Comunicaciones industriales (EIP, Profinet, Modbus, Ethercat)
  • Otras comunicaciones industriales bajo consulta
¡Si te gusta el artículo, compártelo!

INDUSTRIA CÁRNICA: SOLUCIONES DE VISIÓN ARTIFICIAL Part.2

Destacado

Tiempo de lectura: 2 minutos

Continuamos mostrando más ejemplos de aplicaciones de visión artificial en la industria cárnica.

4. APLICACIONES PARA EMPAQUETADO Y ETIQUETADO

  • Presencia/ausencia y contaje
  • Pick & Place para empaquetar
  • Control de etiqueta
  • Lectura del marcaje, lote, caducidad, etc.
  • Integridad del producto
  • Control del termosellado
  • Control del cierre

Tienes alguna aplicación de visión artificial en la industria cárnica? No lo dudes, contáctanos directamente aquí y te demostraremos que podemos hacer.

Si quieres saber más visita nuestra web bcnvision.es

¿Quieres ver más aplicaciones para la el Sector de la Alimentaria y Bebidas? Seguir leyendo

¡Si te gusta el artículo, compártelo!

INDUSTRIA CÁRNICA: SOLUCIONES DE VISIÓN ARTIFICIAL Part.1

Destacado

Tiempo de lectura: 2 minutos

Los productos de la industria cárnica deben cumplir un gran número de normas y estándares de calidad. La automatización de procesos ayuda muchísimo a cumplir con todos los requerimientos establecidos y uno de los elementos responsables de diversos controles es la visión artificial. Actualmente es posible realizar aplicaciones, antes impensables, gracias a tecnologías como el Deep Learning.

A continuación, te mostramos aplicaciones posibles en la Industria cárnica desde procesos en el matadero hasta su almacenaje y distribución.

1. APLICACIONES EN MATADERO

  • Clasificación de sexos
  • Inspección interna para encontrar posibles enfermedades
  • Detección de restos fecales

2. APLICACIONES EN SALA DE DESPIECE

  • Clasificación de carne, pieza o tipo de corte
  • Detección de cuerpos extraños
  • Localización de hueso para corte

3. APLICACIONES EN SALA DE PROCESADOS

  • Control de defectos en el producto
  • Control volumétrico
  • Detección de excesos de grasa

Sigue atenta/o a nuestro Linkedin, iremos publicando más información con soluciones de visión para la Industria Cárnica.

Si quieres saber más visita nuestra web bcnvision.es

O contáctanos directamente aquí.

¿Quieres ver más aplicaciones para la el Sector de la Alimentaria y Bebidas? Seguir leyendo

¡Si te gusta el artículo, compártelo!

SOLUCIONES DE VISIÓN ARTIFICIAL PARA ALIMENTACIÓN Y BEBIDAS. Parte 2.

Destacado

Tiempo de lectura: 3 minutos

2. INSPECCIÓN DEL PRODUCTO ENVASADO

El empaque afecta la percepción del consumidor sobre el valor del producto, su calidad y la seguridad que le aporta la marca. Los sistemas de visión artificial inspeccionan los envases y empaques de los alimentos para asegurar que estén libre de defectos, así como completos, de modo que solo los productos de la más alta calidad lleguen a los clientes finales.

  • Asegurar integridad del producto
  • Clasificación y verificación del empaquetado
Clasificación y Presencia/ausencia del producto.
  • Inspección del envase
  • Control del llenado, taponado y cierre de seguridad
  • Inspección de etiquetas
  • Correspondencia entre producto y envase
  • Lectura caracteres, OCR
  • Lectura de códigos

Estas son algunas de las aplicaciones que estamos realizando actualmente, hay muchísimas más, cada cliente tiene sus propias necesidades.

¿No has visto la 1ª parte de este artículo? puedes verla aquí.

¡Contáctanos y realizaremos las pruebas necesarias para dar con la mejor solución a tu proyecto! ¡Te lo demostramos! Contáctanos a través de este formulario.

Si quieres saber más de Bcnvision visita nuestra web www.bcnvision.es

¡Si te gusta el artículo, compártelo!

SOLUCIONES DE VISIÓN ARTIFICIAL PARA ALIMENTACIÓN Y BEBIDAS. Parte 1.

Destacado

Tiempo de lectura: 2 minutos

La automatización de procesos en la industria alimentaria es imparable y cada día el mercado ofrece soluciones y tecnologías que mejoran la productividad y su calidad.

La visión artificial se ha convertido en un elemento crucial en la automatización de procesos y , concretamente en el sector de alimentación y bebidas, podemos englobarlos en 4 grandes grupos de soluciones.

A continuación, mostramos ejemplos de algunas de las posibles aplicaciones en:

  1. INSPECCIÓN DE CALIDAD DE PRODUCTO 

Inspeccionar la integridad del producto antes del envasado es fundamental. La visión artificial permite identifica defectos, productos dañados o tolerancias no permitidas en las primeras fases de producción.

  • Detección de cuerpos extraños
  • Detección de contaminación cruzada
  • Detección de manchas y cuerpos extraños
  • Detección de defectos
  • Control de volumen y mediciones
  • Inspección de color / Control del tostado
  • Detección de grasa

Sigue atento a nuestro Linkedin, iremos aumentado la información con más soluciones de visión en alimentación y bebidas.

Si quieres saber más visita nuestra web www.bcnvision.es

O contáctanos directamente en este formulario.

¿Conoces la tecnología Deep Learning aplicada a la visión artificial? Haz click aquí para saber más.

¡Si te gusta el artículo, compártelo!

Deep Learning aplicado a las Ciencias de la Vida

Destacado

Tiempo de lectura: 4 minutos

Los estudios en laboratorios y las tecnologías para llevarlos a cabo han avanzado muchísimo en los últimos años. Uno de los grandes avances tecnológicos es el Deep Learning aplicado a la visión artificial.

En muchas aplicaciones de laboratorio es necesaria una visión suficientemente flexible como la humana para poder tomar decisiones basadas en un juicio y una experiencia. En muchos casos los problemas de calidad de imagen, de reflejos, superficies brillantes, etc. hacen muy difícil o casi imposible a los algoritmos tradicionales de visión artificial inspeccionar con precisión para detectar anomalías, siendo prácticamente imposible detectar con acierto las diferencias e ignorar características irrelevantes.

Afortunadamente los avances en el análisis de imágenes con Deep Learning han hecho posible la automatización de estas aplicaciones de forma exitosa y fiable.

Detección de defectos, clasificación, lectura de caracteres y verificación de ensamblajes

Las aplicaciones de microscopía clínica y de investigación que anteriormente requerían inspección humana se están reinventando con la aplicación de análisis de imágenes basado en el Deep Learning. Las muestras patológicas e histológicas, por ejemplo, requieren una detección y segmentación precisa de defectos a pesar de los patrones variables e impredecibles de los defectos.

Una célula cancerosa podría aparecer en varios tamaños y formas, y sus diversas formas son, en la mayoría de los casos, más diferentes de lo que son similares. Es efectivamente imposible enseñar a un sistema de inspección a identificar todas las anomalías posibles sin una programación extensa, e incluso entonces, la posibilidad de identificación falsa o de rechazo es alta. En una situación como esta, el análisis de imágenes basado en Deep Learning en modo no supervisado ofrece un modo de inspección altamente preciso y eficiente.

En una aplicación de detección de anormalidades celulares, un ingeniero utiliza imágenes de muestra de posibles anormalidades celulares, como el cáncer, para enseñar al software a conceptualizar y generalizar la apariencia normal de una célula o grupos de células. Estos portaobjetos están etiquetados como «buenos» ejemplos de células sanas y además tienen en cuenta las variantes normales de células sanas, como la mitosis. Luego, durante el tiempo de ejecución, cualquier variación se marca como anómala, marcando el daño celular. Pero esta aplicación requiere un paso más. Una vez que se marca una celda o un grupo de celdas, la región de interés particular debe segmentarse dinámicamente en tiempo real para una revisión adicional. La célula exhibe un daño potencial, después de todo, porque su apariencia se aleja de la norma, pero no es necesariamente cancerosa. Estas desviaciones pueden ser causadas por artefactos en la diapositiva.

Normalmente, una inspección humana, probablemente un patólogo, tendría que revisar este subconjunto de muestras para hacer un diagnóstico firme. Pero, de nuevo, el software basado en Deep Learning puede volver a ejecutar su algoritmo sobre las zonas objetivo del subconjunto, esta vez con reentrenamiento en modo supervisado, para analizar entre «bueno» (tolerable, no dañado) y «malo» (patológico, dañado) células.

Además, con Deep Learning también es posible la clasificación de muestras de sangre, la lectura de caracteres (OCR) en superficies transparentes, reflectantes y/o flexibles en la que los caracteres se presentan deformados y la lectura es mucho más complicada, como por ejemplo pasa en bolsas intravenosas de suero. De esta manera pueden cumplir con las normas de seguridad y llevar una correcta identificación automática de la trazabilidad.

Por otro lado, el correcto ensamblaje de las muestras para análisis (sangre, orina o tejido) en lo que se conoce como verificación previa al ensamblaje, es esencial para reducir cualquier error potencial que pueda amenazar la contaminación, mezclar o etiquetar mal los diagnósticos, o ralentizar o romper equipos costosos. Durante estas inspecciones, el sistema automatizado debe verificar que no haya tubos de ensayo desalineados o ausentes, tapas que no se hayan quitado o recipientes extraños cargados en la rejilla del analizador. La verificación de que el bastidor del equipo se ha poblado completa y correctamente implica la gestión de varios factores: los tubos y recipientes de muestra y reactivo varían según la forma, el tamaño y la dimensión del fabricante, y puede ser imposible para la máquina predecir la posición de las muestras en la plataforma.

Con estas variaciones impredecibles en las configuraciones de prueba, tiene sentido utilizar el Deep Learning para realizar la verificación de ensamblaje.

La herramienta generaliza las características distintivas de las muestras y reactivos en función de su tamaño, forma y características de superficie y aprende su apariencia normal, así como su ubicación general en los bastidores o microplacas de la plataforma. De esta manera, el Deep Learning es capaz de automatizar y resolver una aplicación que antes era difícil de programar de una manera rápida, altamente precisa y fácil de implementar.

Aquí puedes ver una pequeña demostración de como la visión Deep Learning resulve fácilmente aplicaciones de localización, contaje y clasificación en un laboratorio.

Si quiere más información sobre los productos de DEEP LEARNING que disponemos en Bcnvision visita www.bcnvision.es y contacta con nosotros a través del formulario de contacto.

¡Si te gusta el artículo, compártelo!