cisco40 40x40f oracle40 oracle40 lgo4

Inteligencia Artificial: guía rápida para entenderla

pouy

Dos de los términos que últimamente suenan asociados a inteligencia artificial son machine learning y deep learning. Ambos tienen su traducción en castellano (aprendizaje automático y aprendizaje profundo), aunque no siempre se utilice. Son dos formas de inteligencia artificial –una tecnología que funciona desde hace décadas– y que se engloban una a la otra.

Se puede decir que el machine learning tiene una vertiente que se denomina deep learning. Las dos tecnologías hacen referencia a sistemas capaces de aprender por sí solos. La diferencia entre ambos estriba en el método de aprendizaje. El de deep learning es más complejo y también más sofisticado. Es también más autónomo, lo que quiere decir que una vez programado el sistema la intervención del ser humano es mínima.

La diferencia entre machine learning y deep learning es que la segunda técnica leva el aprendizaje a un nivel más detallado. El sistema en este caso v a por capas o unidades neuronales. De hecho el funcionamiento de estos algoritmos trata de imitar el del cerebro.

En deep learning cada capa procesa la información y arroja un resultado que se revela en forma de ponderación. Es decir, cuando una unidad de un sistema analice una foto en busca de perros concluirá que dicha imagen es en un 78% de probabilidad un perro y en un 22% no lo es.

¿Qué es y que no Inteligencia Artificial?

De repente, gracias a la llegada de los bots a Facebook Messenger como  atractivo,  todo parece ser "bots". Empresas “competidoras” como Telegram también ofrecen su plataforma para crearlos, y muchas empresas de servicios y ventas los están implementando en su chat de atención al cliente. También es posible utilizarlos incluso en aplicaciones de noticias como la de Quartz.

Los bots eran la próxima gran revolución, y para este 2017 se esperaba una gran repercusión en ferias tecnológicas, pero parece que el flujo creativo ha parado. Ni en el pasado IFA de 2016 ni en el CES han sido relevantes entre las tendencias para el nuevo año, y a la espera del Mobile World Congress, de momento parece que quedan como una solución que muchas empresas pueden emplear para intentar atraer y resultar atractivas, más que para ofrecer una utilidad real.

A esto recuerda, por ejemplo, la fiebre que hubo hace unos años con el uso de códigos QR. En muchos lugares podían resultar útiles, pero en la mayoría sólo eran un elemento que no aportaba nada a la experiencia de uso, ni siquiera agilizaba. Los bots que conocemos hasta ahora, o al menos la mayoría de ellos, tampoco pueden ser llamados inteligencia artificial, en tanto que no aprenden de nosotros ni de sus programadores sin que éstos alteren su código. Y seguir órdenes empleando algoritmos, paso a paso, no es inteligencia artificial.

Slack, por ejemplo, anunció su integración con Watson, de IBM. Ese es un paso interesante, pues Watson es capaz de aprender e identificar patrones y añadir su aprendizaje a sus bases de datos, de manera que se va mejorando a sí mismo y en el futuro es capaz de mejorar la forma de afrontar una situación. El resto de bots, como el típico de Giphy, tendrán que esperar a conocer mejor al usuario y a darle información mucho más precisa para acercarse a la consideración de “inteligentes”.

Para el usuario final, por ejemplo, la manera en que Siri responde al usuario tampoco es inteligencia artificial per se, aunque las técnicas de machine learning que Apple está empleando para mejorar las respuestas y su conocimiento sí lo sean. Y es que el Siri que podemos encontrar ahora es radicalmente opuesto al que llegó en 2011 con el iPhone 4S.

Google Assistant, por su parte, es más conversacional, y tiene en cuenta elementos como el contexto, que sí interioriza y de los cuales es capaz de aprender para mejorar en el futuro. En ese sentido, aunque no está en manos del público, AlphaGo es una de las mejores muestras de inteligencia artificial aplicada que se ha puesto en práctica, con una implementación brillante de las últimas tendencias (deep learning, machine learning, etc).

Por su complejidad, pasará tiempo hasta que la inteligencia artificial de verdad se expanda como se expandieron los bots el pasado año. Sin embargo, la informática está en un punto tan avanzado en que sin inteligencia artificial se pueden hacer muchas cosas que también parecen milagrosas, pero sólo es ciencia.

Historias olvidadas: la computadora argentina que compitió con IBM

IBM

Hoy estamos acostumbrados a que, en general, los dispositivos electrónicos provengan de Asia. Sin embargo, a mediados de la década de los setenta, el escenario en la Argentina era bien diferente. Por entonces, FATE División Electrónica, una empresa privada nacional, había logrado desarrollar y comercializar calculadoras electrónicas y había desplazado del liderazgo del mercado argentino a la italiana Olivetti, una de las principales empresas del rubro por aquellos años. Cuando el destello de la División Electrónica de FATE se apagaba, en Córdoba surgía Microsistemas. Esta pyme le disputaría al gigante estadounidense IBM el mercado argentino de las computadoras graboverificadoras.

Nicolás Wolovick y Gustavo del Dago se interesaron por la trayectoria de Microsistemas y, especialmente, por su logro fundacional, la MS101, una computadora que haría historia. Wolovick es docente e investigador en Ciencias de la Computación de la Facultad de Matemática, Astronomía, Física y Computación (FAMAF), de la Universidad Nacional de Córdoba (UNC). En el caso de del Dago, su especialidad es el desarrollo de software y también se desempeña como profesor de computación. Ambos, además, son entusiastas de la “arqueología computacional”, una disciplina en ciernes que intenta “brindar nuevos aportes a la gente que está haciendo historia desde la perspectiva de la técnica y la ingeniería”, explica Del Dago. La arqueología computacional suma adeptos en una iniciativa denominada SAMCA (Salvando la Memoria de la Computación Argentina).

El surgimiento de Microsistemas fue obra de Julio Eduardo Bazán, un contador que en la década de los sesenta tenía una empresa, PROCECOR, con la que cargaba datos para entidades como Obras Sanitarias de la Nación (Córdoba) o el Banco de la Provincia de Córdoba.

En aquellos años, la información se almacenaba en tarjetas de papel perforadas o en cintas magnéticas. El disco flexible de 8 pulgadas había sido introducido por IBM recién en 1971. En el esquema de trabajo de las primeras computadoras era fundamental cargar y verificar los datos, lo que se realizaba con unas máquinas denominadas graboverificadoras. La carga se efectuaba en los puntos de generación de la información (un banco, por ejemplo) a través de listados duplicados, a fin de que las graboverificadoras constataran que estaban bien, y posteriormente se los grababa en tarjetas o cintas –y tiempo después, en discos flexibles– para transportarlos a los centros de cómputo donde se procesaban. La empresa que dominaba el mercado de estas máquinas era IBM.

En la medida en que Bazán expandía su negocio necesitó más graboverificadoras y decidió desarrollar un equipo propio para no pagar los altos costos de los importados. Para ello, convocó a un grupo de profesionales que se desempeñaban en empresas multinacionales de informática radicadas en Córdoba y, aprovechando el surgimiento del microprocesador, se largaron a hacer su propia computadora. Se comenzó a trabajar en el prototipo en 1976, al año siguiente estaba listo y se inició su comercialización en 1978. Se trataba de la MS101, que primero prestó servicios en el propio centro de cómputos de Bazán y que, posteriormente, se transformó en un producto en sí mismo, del que se vendieron cerca de trescientos ejemplares en todo el país.

Microsistemas tuvo un crecimiento rápido, pero a finales de los setenta comenzó a experimentar problemas financieros y debió asociarse con otra empresa: CEPICO. A mediados de los ochenta, Microsistemas fue vendida a SADE, del grupo Pérez Companc. Para entonces, el porcentaje de desarrollo propio puesto en cada producto había disminuido sustancialmente y se incorporaban cada vez más elementos importados. Finalmente, la empresa desapareció en los años noventa, tras transformarse en una mera armadora de clones.

Los secretos de la MS101

La MS101 era una computadora de propósito específico –a diferencia de las actuales, que son de propósito general–, con un teclado, una disquetera externa y un gabinete con pantalla de fósforo verde. Además, poseía un procesador Intel 8080 –en la vanguardia de la época– con 8 kB de memoria RAM. El diseño había sido obra de Juan Salonia y el programa de Héctor Múller, ambos colaboradores de Bazán. La MS101 permitía cargar 80 caracteres por línea y corregirlos si había un error, dado que disponía de “backspace”, algo que no poseían todas las máquinas de la época. El software contaba con un menú con diversas opciones, podía establecer formatos en los datos (fechas, numéricos) y también validaba y ordenaba la información.

Cuando Microsistemas se embarcó en la tarea de desarrollar una computadora propia no contaba con antecedentes al respecto. Al parecer, la intención de Bazán y su gente, más que incursionar en el negocio de la fabricación de computadoras, era apuntalar el centro de datos que ya poseían. Tampoco quienes se abocaron a la tarea de construir la MS101 tenían trayectoria en investigación o desarrollo en este campo, a diferencia de lo ocurrido con FATE, que se había nutrido de especialistas formados en la Universidad de Buenos Aires.

Tanto el desarrollo de la MS101 como su fabricación, eran extremadamente artesanales. Microsistemas contaba con aproximadamente una docena de empleados que se encargaban de producir el hardware y el software. La disquetera, el teclado y el monitor eran importados. La impresión de los circuitos y los gabinetes de chapa eran producidos por proveedores externos.

El personal de la empresa, a su vez, realizaba el mantenimiento de los equipos en los establecimientos de los clientes y cualquier modificación que estos desearan. Las máquinas eran una “caja negra” y solo la gente de Microsistemas accedía a ellas. No había tampoco una concepción moderna que separase el programa del hardware, sino que ambas cosas estaban indisolublemente unidas. Es probable que esto haya respondido a una política comercial pensada para que los clientes permanecieran atados al servicio de soporte de Microsistemas, pero también es factible que haya sido la consecuencia de un trabajo excesivamente artesanal.

En el caso de la programación, según Wolovick, en Microsistemas ni siquiera usaban un “ensamblador” (programa de interfaz entre el código de máquina que lee el hardware y el lenguaje que emplea el programador), sino que directamente ponían números en la memoria, algo “increíblemente artesanal y primitivo”. Pero, también, al ser un producto tan artesanal, sus diseñadores tenían un dominio completo de él y eso favoreció el rápido desarrollo de versiones a medida de clientes específicos. Por ejemplo, en la antigua cementera Corcemar se instalaron máquinas conectadas a balanzas electrónicas para medir la producción de hormigón y, para la financiera Denario, además de colocarle un software que calculaba intereses, se lograron hacer transmisiones a través de ARPAC, la red digital de ENTEL, para sincronizar la información de las sucursales durante la noche. Este procedimiento no era novedoso, pero sí lo era emplear computadoras de bajo rango y costo para hacer lo mismo que hasta ese momento solo se realizaba con grandes máquinas.

El éxito de la MS101 llevó al desarrollo de modelos más avanzados, como la MS104, pero con el correr del tiempo Microsistemas fue elaborando cada vez menos software propio e incorporando copias “pirateadas” de programas importados como Basic y Cobol, a los que les traducía los manuales, les agregaba la sigla “MS” y posteriormente comercializaba.

Bazán y su gente tampoco exploraron la posibilidad de hacer una computadora de propósito general, aunque la MS101 tenía potencialidad para eso. De hecho, era factible cargar a partir del disquete de arranque un programa oculto que permitía incorporar otras funcionalidades, como la de pequeños juegos.

Con respecto al precio de estas máquinas, aunque Wolovick y fel Dago no consiguieron información precisa, estiman que osciló entre 12.000 y 14.000 dólares, lo que no las hacía baratas, pero sí mucho más económicas que sus homólogas de IBM.

¿Silicon Córdoba?

El éxito que tuvo en su momento Microsistemas, contemporáneo al fabuloso ascenso del mítico Silicon Valley estadounidense, inevitablemente lleva a la siguiente pregunta: ¿Podría haber germinado algo similar en Córdoba? Ni Wolovick ni del Dago creen que la comparación sea pertinente. Había muchas diferencias entre una y otra experiencia.

“No hubo un plan de desarrollo tecnológico”, opina del Dago sobre Microsistemas, y agrega: “Había una muy buena capacidad para usar la tecnología disponible frente a la necesidad local y encarar la resolución de problemas. Pero en ningún momento estaba la idea de correr la frontera de la computación, crear un lenguaje de programación nuevo o una máquina novedosa”.

En Microsistemas también había mucha improvisación. Los primeros equipos salían de fábrica sin número de serie, algo que posteriormente se corrigió porque dificultaba su identificación para el mantenimiento. Tampoco había controles de calidad, aunque las máquinas eran robustas.

“Podrían haber sobrevivido más tiempo, pero habrían terminado armando clones, ya que la ‘comoditización’ de las partes de computadoras que vino en la década de los ochenta fue muy fuerte. Se le podría haber agregado valor desarrollando software, pero no eran buenos en eso”, dice Wolovick. Su colega del Dago, en cambio, cree que “con más tiempo probablemente podrían haber mejorado su forma de desarrollar software”.

A pesar del fracaso final de Microsistemas, Wolovick destaca que la influencia que tuvieron en la informática de Córdoba quienes estuvieron involucrados en esta experiencia fue enorme, “para bien y para mal”, y se proyecta hasta el presente. Se trata de una experiencia testigo de una época en la que la Argentina casi salta sobre su propia sombra de subdesarrollo y también de una metodología de abordaje de los desafíos tecnológicos que a veces brindaba éxitos inmediatos resonantes, pero trastabillaba a la hora de darles continuidad.

Fuente: Agencia TSS

Furukawa innova con soluciones de Cableado en las plantas industriales

furukawa-768x469

Furukawa, partner educativo de Fundación Proydesa y uno de los mayores fabricantes de soluciones de infraestructura para redes de comunicaciones, ha desarrollado una nueva línea de productos que atiende a la necesidad de eliminar los problemas de comunicación por redes en ambientes industriales.

Con la intensificación del uso de la automación y de la Tecnología de Información en la planta de fabricación – dentro del concepto de industria 4.0 -, estas características pueden provocar problemas en las redes de comunicación instaladas en estos ambientes y perjudicar la transmisión de datos.

¿Cuáles son los problemas más frecuentes en el cableado interno de una fábrica?

  • Falla de polvo higroscópico: Materiales sólidos en suspensión pueden depositarse en la superficie de las placas de circuito impreso o en los contactos, puente entre los intervalos de los conductores, aislándolos.
  • Oxidación: La alta humedad daña los contactos y causa varios tipos de corrosión que pueden provocar fallas en el sistema.
  • Fatiga: Ante la presencia de partículas en las áreas de contacto, las capas de metales preciosos pueden deteriorarse durante los procesos de conectorización.
  • Vibración: Los ambientes con presencia de vibraciones pueden dañar los contactos de los conectores, provocando pérdidas de señal de la comunicación.

Con el objetivo de evitar estos problemas, Furukawa ha desarrollado una línea de productos específica para ambientes industriales que satisface la instalación de puntos de redes sobre condiciones adversas. “Los productos de la Solución Industrial Furukawa, tienen características técnicas diferenciadas que los hacen ideales para aplicaciones en las diversas áreas, como siderurgia, petróleo, gas, y metro, entre otras”, afirma la ingeniera de Aplicaciones, Mariana Pauli Balan.

“La instalación de un cableado adecuado a este tipo de ambiente crítico permite eliminar problemas como oxidación, fatiga y vibración que son causados por el polvo, humedad y daños a los contactos, por ejemplo, que hacen que la solución sea 100% confiable y segura”, explica Balan.

Los productos de esta línea presentan, entre otros diferenciales, un índice de protección hasta un grado IP67, esto significa que ofrecen protección total contra el polvo, chorros fuertes de agua e inmersión temporal (hasta 30 minutos). Los cables metálicos tienen recubrimientos con características destinadas a soportar aplicaciones en ambientes con alta abrasividad, altas temperaturas y presencia de aceites y grasas, por ejemplo.

Además, la Solución Industrial Furukawa incluye productos ópticos – como DIOs, Cables IP67 y otros accesorios – o productos blindados – como patch panel, patch cords y otros accesorios -, recomendados para ambientes sujetos a interferencias electromagnéticas. “Las interferencias causadas por máquinas industriales con fuentes inductivas, lámparas fluorescentes o fuentes con elevadas tensiones pueden perjudicar la transmisión de datos sobre cables de cobre. En estos casos, se recomienda el uso de productos ópticos ya que son inmunes a interferencia electromagnética o productos blindados, con una infraestructura de instalación adecuada”, concluye.

Si querés capacitarte en Cableado Estructurado y Fibra Óptica con Furukawa y Fundación Proydesa, hacé click aquí

Cursos disponibles
Inscribite hoy mismo!
Cableado Estructurado de Datos
Inicia: 10/11/2025
Online | Intensiva
Inteligencia Artificial y Ciencia de Datos
Inicia: 12/11/2025
Online | Regular
CCNA 1 v7: Introduction to Networks
Inicia: 15/01/2026
Online | Intensiva
CCNA 2 v7: Routing, Switching and Wireless Essentials
Inicia: 15/01/2026
Online | Intensiva
CCNA 3 v7: Enterprise Networking, Security and Automation
Inicia: 15/01/2026
Online | Intensiva
ver todas