Desarrollo de proyectos de IA: cómo deben prepararse los gerentes de proyectos
Publicado: 2022-03-11Escucha la versión en audio de este artículo
Como gerente de proyectos, probablemente se haya involucrado en varios proyectos de TI a lo largo de su carrera, desde estructuras monolíticas complejas hasta aplicaciones web SaaS. Sin embargo, con el avance de la inteligencia artificial y el aprendizaje automático, nuevos proyectos con diferentes requisitos y problemas están surgiendo en el horizonte a gran velocidad.
Con el auge de estas tecnologías, cada vez es menos “bueno tenerlo” y, en cambio, es esencial que los gerentes de proyectos técnicos tengan una relación saludable con estos conceptos. Según Gartner, para 2020, la IA generará 2,3 millones de puestos de trabajo, superando los 1,8 millones que eliminará, lo que generará 2,9 billones de dólares en valor comercial para 2021. El CEO de Google llega a decir que “la IA es una de las cosas más importantes la humanidad está trabajando. Es más profundo que […] la electricidad o el fuego”.
Con las aplicaciones de inteligencia artificial que ya están revolucionando industrias que van desde las finanzas hasta la atención médica, los PM técnicos que pueden aprovechar esta oportunidad deben comprender cómo la gestión de proyectos de IA es distinta y cómo pueden prepararse mejor para el panorama cambiante.
Teoría
Qué significa todo esto: IA vs. ML
Antes de profundizar, es importante tener una comprensión sólida de lo que realmente es la IA. Con muchos términos diferentes que a menudo se usan indistintamente, profundicemos primero en las definiciones más comunes.
Inteligencia Artificial (IA)
La IA es un campo de la informática dedicado a resolver problemas que, de otro modo, requerirían inteligencia humana, por ejemplo, reconocimiento de patrones, aprendizaje y generalización.
Este término se ha utilizado en exceso en los últimos años para denotar inteligencia general artificial (AGI), que se refiere a programas informáticos conscientes de sí mismos, capaces de una cognición real. Sin embargo, la mayoría de los sistemas de IA en el futuro previsible serán lo que los informáticos denominan "IA estrecha", lo que significa que estarán diseñados para realizar una tarea cognitiva realmente bien, en lugar de "pensar" realmente por sí mismos.
Aprendizaje automático (ML)
El aprendizaje automático es un subconjunto de la inteligencia artificial que utiliza técnicas estadísticas para dar a las computadoras la capacidad de aprender de los datos sin ser programados explícitamente.
Muchas empresas han utilizado indistintamente AI y ML en los últimos años debido al éxito de algunos métodos de aprendizaje automático en el campo de la IA. Para ser claros, el aprendizaje automático denota la capacidad de un programa para aprender , mientras que la inteligencia artificial abarca el aprendizaje junto con otras funciones.
Para obtener más información sobre las redes neuronales y el aprendizaje profundo, consulte el apéndice al final de este artículo.
Una distinción importante: IA frente a algoritmos estándar
Una conclusión clave de la IA es que sus algoritmos usan una gran cantidad de datos para ajustar su estructura interna de modo que, cuando se presentan nuevos datos, se categorizan de acuerdo con los datos anteriores proporcionados. A esto lo llamamos "aprender" de los datos en lugar de operar de acuerdo con las instrucciones de categorización escritas estrictamente en el código.
Imagine que queremos escribir un programa que pueda diferenciar los automóviles de los camiones. En el enfoque de programación tradicional, intentaríamos escribir un programa que busque características específicas e indicativas, como ruedas más grandes o una carrocería más larga. Tendríamos que escribir un código que defina específicamente cómo se ven estas características y dónde deberían encontrarse en una foto. Escribir un programa de este tipo y hacer que funcione de manera confiable es muy difícil, lo que probablemente produzca tanto falsos positivos como falsos negativos, hasta el punto de que al final no se pueda utilizar en absoluto.
Aquí es donde los algoritmos de IA se vuelven muy útiles. Una vez que se entrena un algoritmo de IA, podemos mostrarle muchos ejemplos y ajusta su estructura interna para comenzar a detectar características relevantes para la clasificación exitosa de las imágenes en lugar de confiar en definiciones de características prescritas y estáticas.
Gestión de proyectos de IA en la práctica
Los datos son reyes
Los humanos no son muy buenos para manejar grandes volúmenes de datos, y la gran cantidad de datos disponibles a veces nos impide usarlos directamente. Aquí es donde entran los sistemas de IA.
Un concepto fundamental con respecto a los sistemas de IA es que sus predicciones son tan buenas como sus datos. Por ejemplo, un algoritmo con un millón de puntos de datos superará al mismo algoritmo con 10 000 puntos de datos. Además, BCG informa que “muchas empresas no entienden la importancia de los datos y la capacitación para el éxito de la IA. Con frecuencia, mejores datos son más cruciales para construir un sistema inteligente que los algoritmos mejor desnudos, al igual que la crianza a menudo supera a la naturaleza en los seres humanos”.
Con este conocimiento a cuestas, la preparación y limpieza de datos es algo que prevalecerá más en el proceso del proyecto. Este paso suele ser la parte más laboriosa de la creación de un sistema de IA, ya que la mayoría de las empresas no tienen los datos listos en los formatos correctos; por lo tanto, los analistas de datos pueden tardar un tiempo en completar este paso esencial.
Además, la configuración de la infraestructura de datos y los trabajos de limpieza de datos son mucho más lineales que el desarrollo de software habitual y pueden requerir una metodología de gestión de proyectos diferente.
En resumen, puede llevar mucho más tiempo construir la infraestructura de datos adecuada y preparar los datos para su uso que construir el modelo de aprendizaje automático para ejecutar los datos. Esta es una gran consideración para los gerentes de proyectos, ya que administran equipos y piensan en el alcance de la IA y las estimaciones del proyecto.
Además, el conjunto de datos debe actualizarse continuamente con los nuevos datos. El acceso a conjuntos de datos únicos podría ser el principal factor decisivo para definir qué producto ML es más exitoso. Es fundamental mantenerse actualizado sobre esto para alcanzar el mejor rendimiento posible para su proyecto ML, incluso después del lanzamiento.
El ciclo de vida del desarrollo de la IA
La mayoría de ustedes estará familiarizado con el ciclo de vida de desarrollo de sistemas estándar (SDLC) junto con la forma en que las diferentes metodologías y tecnologías le dan forma. Es importante tener en cuenta que el desarrollo de la IA traerá un nuevo conjunto de desafíos al campo. Podemos dividir el ciclo de vida del desarrollo de IA en estos pasos: ideación y descubrimiento de datos, priorización de MVP y desarrollo de MVP en productos completos.
Ideación y descubrimiento de datos
En esta primera etapa, el enfoque debe estar en dos cosas clave: el usuario final del producto ML y qué grupos de datos están disponibles.
Al abordar el problema desde dos lados independientes, estas técnicas pueden ayudar a un gerente de proyecto a reducir rápidamente las oportunidades de productos de ML disponibles dentro de una empresa. Durante esta fase, los mejores PM pueden beneficiarse de su conocimiento del espacio de aprendizaje automático para comprender mejor la dificultad a la que se pueden resolver ciertos problemas. Las cosas se mueven muy rápido en el campo de ML, y algunos problemas difíciles pueden simplificarse mucho con los nuevos desarrollos en la investigación.
Como se mencionó anteriormente, una vez que se descubren los datos, es necesario limpiarlos y prepararlos. Esta tarea específica normalmente se realiza en pasos lineales, que no encajan perfectamente en las metodologías típicas de proyectos como Agile o Waterfall, aunque pueden forzarse en sprints. Por lo general, la limpieza de datos se realiza de manera iterativa aumentando gradualmente el tamaño de los conjuntos de datos y preparándolos en paralelo con otros esfuerzos de desarrollo.
Priorizando el Producto Mínimo Viable (MVP)
La verdad de que es mejor tener un prototipo de trabajo de un producto más pequeño, en lugar de uno grande sin terminar, sigue estando aquí con los productos de aprendizaje automático. Los nuevos MVP de ML deben priorizarse en función de la velocidad de entrega y su valor para la empresa. Si puede entregar productos, incluso aquellos que pueden ser más pequeños, con rapidez, puede ser una buena y rápida victoria para todo el equipo; debe priorizar estos productos primero.
Preparar estos MVP al estilo Agile clásico es una buena idea, y el equipo de desarrollo debe centrarse en entregar modelos de ML basados en conjuntos de datos en constante mejora preparados de forma independiente por el equipo de datos. Una distinción importante aquí es que el equipo de datos no necesariamente necesita trabajar a través de la misma estructura de Sprint que el equipo que construye el MVP .
MVP a producto completo
Este paso es donde la infraestructura de datos se vuelve clave. Si su producto ML requiere acceso API de alta frecuencia de todo el mundo, ahora debe considerar cómo puede escalar la infraestructura para admitir el producto ML.
Aquí es donde los cambios en los módulos ML deben evaluarse cuidadosamente para evitar romper el rendimiento del producto actual. Volver a entrenar los módulos de ML con nuevos algoritmos o conjuntos de datos no siempre genera un aumento de rendimiento lineal; por lo tanto, se requiere una cantidad sustancial de pruebas antes de la implementación en vivo. Las pruebas de módulos de ML para casos extremos y posibles ataques generativos de redes antagónicas (GAN) aún están en pañales, pero definitivamente es algo que los gerentes de proyectos deben tener en cuenta al ejecutar un producto de ML en vivo.
Roles clave dentro del ciclo de vida de desarrollo de IA
Los requisitos de gran cantidad de datos del desarrollo de aplicaciones ML traen nuevos roles al SDLC de productos de IA. Para ser un gran administrador de proyectos en el campo de las aplicaciones de ML, debe estar muy familiarizado con los siguientes tres roles: científicos de datos, ingenieros de datos e ingenieros de infraestructura. Aunque a veces se disfrazan con otros títulos, incluidos ingenieros de aprendizaje automático, ingenieros de infraestructura de aprendizaje automático o científicos de aprendizaje automático, es importante tener una comprensión sólida de estas posiciones centrales y su impacto en el proceso de desarrollo de ML.
Científico de datos
Los científicos de datos son las personas que construyen los modelos de aprendizaje automático. Sintetizan ideas basadas en su profundo conocimiento de las estadísticas aplicadas, el aprendizaje automático y el análisis, y luego aplican sus conocimientos para resolver problemas comerciales reales.
Los científicos de datos a veces se ven como versiones avanzadas de los analistas de datos. Sin embargo, los científicos de datos suelen tener sólidas habilidades de programación, se sienten cómodos procesando grandes cantidades de datos que se extienden a través de los centros de datos y tienen experiencia en aprendizaje automático.
También se espera que tengan una buena comprensión de las infraestructuras de datos y la minería de big data, así como que sean capaces de realizar ejercicios exploratorios por su cuenta, observando datos y buscando pistas e ideas iniciales dentro de ellos.
Habilidades fundamentales: Python, R, Scala, Apache Spark, Hadoop, aprendizaje automático, aprendizaje profundo, estadísticas, ciencia de datos, Jupyter, RStudio
Ingeniero de datos
Los ingenieros de datos son ingenieros de software que se especializan en crear el software y la infraestructura necesarios para que funcionen los productos de ML. Tienden a centrarse en la arquitectura general y, si bien es posible que no sean expertos en aprendizaje automático, análisis o big data, deben tener una buena comprensión de estos temas para probar su software e infraestructura. Esto es necesario para permitir que los modelos de aprendizaje automático creados por el científico de datos se implementen con éxito y se expongan al mundo real.
Habilidades fundamentales: Python, Hadoop, MapReduce, Hive, Pig, transmisión de datos, NoSQL, SQL, programación, DashDB, MySQL, MongoDB, Cassandra
Ingeniero de Infraestructura
Los ingenieros de infraestructura se encargan de la columna vertebral de los productos ML: la capa de infraestructura. Si bien los ingenieros de datos pueden construir parte de esta infraestructura, a menudo se construye sobre la capa preparada y acordada por el equipo de infraestructura.
Los ingenieros de infraestructura pueden trabajar en varios equipos de ML, con el objetivo de crear un entorno escalable y eficiente en el que las aplicaciones de ML puedan escalar para dar servicio a millones de usuarios. Los ingenieros de infraestructura no solo se ocupan del nivel de software de las plataformas, sino que también se coordinan con los socios del centro de datos para garantizar que todo funcione sin problemas, desde la ubicación geográfica de los datos alojados hasta el hardware. Con estos aspectos ganando importancia para los proyectos de ML, los ingenieros de infraestructura se están volviendo cada vez más importantes en las empresas impulsadas por IA.
Habilidades fundamentales: Kubernetes, Mesos, EKS, GKE, Hadoop, Spark, HDFS, CEPH, AWS, computación en la nube, operaciones del centro de datos, infraestructura informática integral, infraestructura de TI, gestión de servicios
Desafíos comunes hoy
Con la aparición de productos basados en IA y ML, se espera que los gerentes de proyecto se enfrenten a desafíos familiares y completamente extraños. Los mejores PM son muy conscientes de estos posibles problemas durante todo el proceso, desde la definición del alcance de los proyectos hasta su finalización.
Verificación de la realidad
A pesar de la popularidad y la promesa de la IA, es muy probable que el problema que está tratando de resolver no requiera una solución de IA elaborada .
Muchos problemas de predicción se pueden resolver utilizando modelos de regresión estadística más simples y, en algunos casos, más confiables. Es muy importante que un PM haga una verificación de cordura antes de comenzar un proyecto para asegurarse de que el problema realmente requiera aprendizaje automático.

A veces es aconsejable comenzar con un modelo estadístico más simple y avanzar en paralelo con una solución basada en aprendizaje automático. Por ejemplo, si está creando un motor de recomendaciones, podría ser conveniente comenzar con una solución más simple con un ciclo de vida de desarrollo más rápido, proporcionando una buena línea de base que el modelo de ML posterior debería superar.
Deslizamiento del alcance de la IA
Las causas más comunes de alteración del alcance en los proyectos de ML están relacionadas con tratar de hacer demasiadas cosas a la vez y subestimar el esfuerzo necesario para preparar los datos .
Para abordar el primer problema, gestione a las partes interesadas para que entiendan que es mejor comenzar con ganancias rápidas en lugar de planes grandiosos. Comunique este enfoque continuamente a lo largo del proyecto, a medida que construye y prueba.
Comience con características atómicas pequeñas que se puedan definir y probar fácilmente. Si se encuentra con una tarea compleja, intente dividirla en tareas más simples que sean buenos sustitutos de su tarea principal. Debe ser fácil comunicar lo que estas tareas se proponen lograr.
Por ejemplo, si intenta predecir cuándo un usuario hará clic en un anuncio específico, primero puede intentar predecir si el usuario descartará el anuncio por completo. En este enfoque, el problema se simplifica y se puede acomodar y predecir mejor mediante los modelos ML actuales. Facebook ha hecho una gran serie profundizando en este tema, centrándose más en la canalización de ML desde el inicio hasta la entrega del modelo.
Para abordar el segundo contribuyente al aumento del alcance, asegúrese de que puede preparar los datos para respaldar sus proyectos de ML. Simplemente asumir que tiene los datos necesarios, en el formato necesario, es el error más común que cometen los PM cuando recién comienzan con proyectos de ML. Dado que la preparación y limpieza de datos suele ser la parte más larga del proceso de proyecto de ML, la gestión de este paso es esencial. Asegúrese de que su científico de datos tenga acceso a los datos correctos y pueda verificar su calidad y validez antes de crear las características de ML que desea crear.
Prepárese para realizar el etiquetado y la limpieza de datos como un ejercicio continuo a lo largo del proyecto, no solo como iniciador, ya que el proyecto siempre puede beneficiarse de mejores y más datos. Dado que este paso no es la tarea más cautivadora, divida este trabajo en sprints para que su equipo de datos pueda sentir el progreso de sus esfuerzos en lugar de enfrentar una acumulación interminable de tickets.
A veces, las empresas subcontratan el etiquetado de datos a terceros. Si bien esto puede ayudar a ahorrar tiempo y costos iniciales, también puede producir datos poco confiables, lo que en última instancia dificulta el éxito de su modelo de ML. Para evitar esto, use la técnica de superposición múltiple, en la que varias partes verifican cada pieza de datos y solo se usa si sus resultados coinciden.
Cuando planifique un proyecto, deje suficiente tiempo para que el equipo de datos haga ajustes en caso de que sus requisitos de etiquetado cambien a mitad del proyecto y sea necesario volver a etiquetar.
Finalmente, verifique si sus datos se pueden usar fácilmente con los métodos ML existentes en lugar de inventar nuevos métodos ML, ya que comenzar desde cero puede aumentar drásticamente el tiempo y el alcance del proyecto. Tenga en cuenta que si está tratando de resolver un problema de ML que aún no se ha resuelto, es muy probable que fracase. A pesar del éxito del aprendizaje automático y la cantidad de trabajos de investigación publicados, resolver problemas de ML puede ser una tarea muy difícil. Siempre es más fácil comenzar con un área de ML que tiene muchos buenos ejemplos y algoritmos e intentar mejorarla en lugar de intentar inventar algo nuevo.
Aprendizaje automático, expectativas y UX
Cada PM debe estar listo para pensar en la experiencia del usuario de los productos de IA que están creando y cómo administrar mejor el equipo que los está construyendo. Google escribió un gran artículo sobre su forma de pensar sobre UX e AI, con énfasis en la interacción humana.
Este punto es especialmente importante si su producto ML tiene que interactuar con operadores o incluso ser reemplazado por ellos. El diseño debe agregar la cantidad mínima necesaria de estrés a los operadores y usuarios del sistema. Por ejemplo, los chatbots a menudo se basan en el aprendizaje automático, pero un operador humano puede hacerse cargo de ellos sin problemas.
También existe la posibilidad de que las partes interesadas esperen mucho más de los productos de aprendizaje automático de lo que pueden ofrecer. Este suele ser un problema derivado de la exageración creada por los medios al escribir sobre productos de IA y, por lo tanto, es importante que el gerente del proyecto establezca expectativas razonables.
Asegúrese de explicar qué es realmente la herramienta de IA y qué puede lograr para sus partes interesadas para que pueda gestionar sus expectativas lo suficientemente bien antes de que prueben la herramienta. Una buena UX es excelente, pero no puede brindar valor a los usuarios con expectativas poco realistas, por lo que es esencial que cualquier PM involucrado las gestione y eduque a sus partes interesadas sobre la IA y sus capacidades realistas.
Garantía de calidad (QA) y prácticas de prueba en ML
La IA en su forma actual es un campo relativamente nuevo. Nunca antes ha habido tantas aplicaciones que utilizan el aprendizaje profundo para lograr sus objetivos. Estos nuevos desarrollos vienen con su propio conjunto de desafíos, particularmente en las pruebas.
Si bien es relativamente fácil probar el software estándar que tiene un "conjunto de reglas" claro escrito por personas, es mucho más difícil probar exhaustivamente los modelos de aprendizaje automático, especialmente aquellos creados con redes neuronales. Actualmente, la mayoría de los modelos de ML son probados por los propios científicos de datos, sin embargo, existen pocos métodos de prueba acordados con equipos de control de calidad estándar para garantizar que los productos de ML no fallen de manera inesperada.
Con nuevas formas de manipular los resultados de los modelos conocidos, como estos ataques GAN, las pruebas integrales de modelos serán cada vez más importantes. Esto se convertirá en una prioridad para muchos proyectos de ML y veremos más pruebas de tipo "integración" para los modelos de ML en los próximos años. Para la mayoría de los proyectos simples, esto puede no ser un problema tangible actualmente, pero es importante tener esto en cuenta si está creando un producto ML de misión crítica.
Robo y plagio de modelos de ML
Desde que se publicó este artículo de Wired y el documento original se presentó en la conferencia USENIX Security en 2016, se ha hecho evidente que existe la posibilidad de plagiar un modelo de ML en vivo.
Esto todavía es bastante difícil de lograr bien, pero si tiene un modelo que se ejecuta a través de una API disponible públicamente, es importante tener en cuenta esta posibilidad. En teoría, una parte con acceso sustancial podría entrenar su propia red basándose en la suya y copiar efectivamente su capacidad de predicción.
Esto todavía es bastante limitado en términos de posibilidades, pero asegúrese de trabajar con su equipo en una estrategia de prevención de posibles ataques si esto es una preocupación para su proyecto.
Escasez de talento
Con la demanda actual de expertos en inteligencia artificial de clase mundial, la competencia por conseguir el talento adecuado es feroz. De hecho, el New York Times informa que los expertos en inteligencia artificial de clase mundial pueden ganar hasta $ 1 millón por año trabajando para las grandes potencias tecnológicas de Silicon Valley. Como PM, mientras busca expertos en inteligencia artificial para unirse a su equipo, tenga en cuenta estas dinámicas, ya que pueden afectar sus ciclos de contratación, su presupuesto o la calidad del trabajo realizado.
Esta escasez se extiende más allá de las mentes innovadoras que crean los algoritmos de aprendizaje profundo más nuevos y también es cierta para los ingenieros y científicos de datos de alta calidad.
Muchas de las personas más talentosas participan en competencias de aprendizaje automático como Kaggle, donde pueden esperar ganar más de $ 100,000 por resolver problemas difíciles de aprendizaje automático. Si es difícil contratar expertos de ML localmente, es aconsejable buscar soluciones innovadoras, como contratar contratistas especializados de forma remota o ejecutar su propia competencia de Kaggle para los problemas de ML más difíciles.
Desafíos legales y éticos
Los desafíos legales y éticos de la IA en la gestión de proyectos son dos.
El primer conjunto de desafíos se deriva de los datos utilizados para entrenar los modelos de ML. Es esencial comprender dónde se originan los datos que usa y, específicamente, si tiene los derechos para utilizarlos y las licencias que le permiten usar los datos.
Siempre es importante consultar a sus abogados para resolver tales preguntas antes de implementar un modelo capacitado en los datos para los cuales es posible que no tenga el tipo de licencia adecuado. Dado que este es un campo relativamente nuevo, muchas de estas respuestas no son claras, pero los PM deben asegurarse de que sus equipos solo utilicen conjuntos de datos para los que tienen los derechos de uso.
Aquí hay una buena lista de conjuntos de datos disponibles públicamente para entrenar sus algoritmos ML.
El segundo conjunto de desafíos proviene de asegurarse de que su sistema no desarrolle un sesgo sistemático. Ha habido numerosos casos de tales problemas en los últimos años, donde una compañía de cámaras tuvo que admitir que su tecnología de reconocimiento de sonrisas solo detecta personas de una raza en particular porque fue entrenada solo con datos que contienen caras de esa raza. Otro ejemplo provino de una gran empresa de software, que tuvo que retirar su bot de Twitter de autoaprendizaje después de unos días de aprendizaje, ya que un esfuerzo concertado de un grupo de trolls de Internet hizo que produjera insultos raciales y repitiera conspiraciones salvajes.
El grado de estos problemas puede ser menor o destruir el proyecto, por lo que al desarrollar sistemas que son críticos, los PM deben asegurarse de considerar tales posibilidades y prevenirlas lo antes posible.
Buenos cimientos conducen a estructuras sólidas
En resumen, la inminente revolución de la IA genera un conjunto de proyectos interesantes y dinámicos que a menudo vienen con un proceso de desarrollo modificado, un arquetipo de equipo diferente y nuevos desafíos.
Los mejores gerentes de proyectos técnicos no solo tienen una buena comprensión de los conceptos básicos de IA, sino también la intuición de la dificultad de cada paso del proyecto y lo que es realmente posible crear con su equipo. Dado que AI no es una solución comercial lista para usar (COTS), incluso las empresas que elijan comprar ciertos productos ML tendrán que invertir en probar cosas nuevas y administrar sus datos e infraestructura correctamente.
Está claro que los tipos de productos de software y los procesos para crearlos están cambiando con la aparición de la IA. Los gerentes de proyecto que puedan comprender y ejecutar estos nuevos conceptos serán actores fundamentales en la creación de los productos de aprendizaje automático del futuro.
Materiales adicionales del autor
Teoría adicional: DL y NN
Además de la verborrea más común de la inteligencia artificial (AI) y el aprendizaje automático (ML), los gerentes de proyecto pueden beneficiarse al ser conscientes de distinguir mejor el aprendizaje profundo (DL) y las redes neuronales (NN).
Aprendizaje profundo (DL)
El aprendizaje profundo es parte de una familia más amplia de métodos de aprendizaje automático basados en representaciones de datos de aprendizaje, a diferencia de los algoritmos clásicos específicos de tareas.
La mayoría de los modelos modernos de aprendizaje profundo se basan en una red neuronal artificial, aunque pueden usar otros métodos.
Redes Neuronales (NN)
Las redes neuronales son estructuras matemáticas conectadas inspiradas biológicamente que permiten que los sistemas de IA aprendan de los datos que se les presentan.
Podemos imaginar estas redes como millones de pequeñas puertas que se abren o cierran, según nuestra entrada de datos. El éxito de estas técnicas fue posible gracias al crecimiento de la potencia informática de la GPU en los últimos años, lo que nos permitió ajustar rápidamente más de esas "pequeñas puertas" dentro de las redes neuronales.
Existen múltiples tipos de redes neuronales, cada una acompañada de sus propios casos de uso específicos y nivel de complejidad. Es posible que vea términos como CNN (red neuronal convolucional) o RNN (red neuronal recurrente) utilizados para describir diferentes tipos de arquitectura de red neuronal.
Para comprender mejor cómo se ven y funcionan, aquí hay una gran visualización en 3D de cómo se ven las redes neuronales mientras están activas.
¿Interesado en aprender más sobre la IA?
Si, después de leer esto, desea profundizar un poco más en el tema, le recomiendo consultar estas fuentes:
Comprender las redes neuronales
Si desea profundizar en la mecánica del funcionamiento de las redes neuronales, le sugiero que consulte la serie 3Blue1Brown sobre redes neuronales en YouTube. En mi opinión, esta es, con mucho, la mejor explicación detallada de las redes neuronales. Se entrega en términos simples y no requiere conocimientos previos.
Mantenerse al día con las noticias de IA
Si desea mantenerse actualizado con los últimos avances en tecnología de IA sin pasar horas leyendo artículos académicos, le recomiendo los siguientes artículos de dos minutos. Este canal ofrece actualizaciones semanales de dos minutos sobre las nuevas técnicas de IA más impresionantes y sus implementaciones.
Aprendiendo los conceptos básicos del desarrollo de ML
Si alguna vez desea incursionar en el código usted mismo y tiene algunas habilidades rudimentarias de Python, puede consultar Fast.ai. Su curso permite que cualquier persona con habilidades básicas de desarrollo comience a experimentar y jugar con las redes neuronales.
Fundamentos del aprendizaje automático
Esta sugerencia es para aquellos que desean comenzar desde el principio y llegar a la cima de la comprensión e implementación del aprendizaje automático.
Creado por el ahora legendario Andrew Ng, quien lanzó Coursera con este curso, requiere una inversión de tiempo sustancial, al menos seis meses, pero puede ser una forma extremadamente productiva de pasar un sábado.
Nota: Las definiciones de términos clave se han adaptado de Wikipedia.