Por qué la IA es cada vez más poderosa: Implicaciones para los negocios y la sociedad

Biografía profesional: Micki Boland es un guerrero y evangelista de seguridad cibernética global con Check Point Oficina del CTO. Micki tiene más de 20 años en TIC, ciberseguridad, tecnología emergente e innovación. El enfoque de Micki es ayudar a los clientes, integradores de sistemas y proveedores de servicios a reducir el riesgo mediante la adopción de tecnologías emergentes de ciberseguridad. Micki es CISSP ISC2 y tiene una Maestría en Ciencias en Comercialización de Tecnología de la Universidad de Texas en Austin, y un MBA con concentración en seguridad global de la Universidad de East Carolina.

En esta entrevista exclusiva con el experto en la materia Micki Boland, CyberTalk.org descubre por qué la IA está teniendo un momento en este momento, las implicaciones comerciales y cómo las organizaciones deben abordar las amenazas planteadas por las nuevas tecnologías.

La IA ha existido durante décadas. ¿Por qué y cómo se ha vuelto más poderosa recientemente?

Es cierto que la Inteligencia Artificial (IA) ha existido durante décadas, desde la Segunda Guerra Mundial. Alan Turing es considerado un contribuyente significativo a la IA y la "Prueba de Turing" sigue en pie como el prueba de IA de autoaprendizaje.

Aunque hemos tenido IA con algoritmos de aprendizaje automático en la ciencia de decisiones durante bastante tiempo, dos cosas están permitiendo grandes saltos en el avance de la IA en este momento: Primero, las redes neuronales están avanzando en la IA generativa y, segundo, el salto cuántico en el poder de cómputo.

Se necesitan cantidades masivas de potencia de cálculo y procesamiento para la IA generativa. Caso en cuestión: en un interesante artículo de Ingeniería, del 27 de febrero de este año, el artículo identificó que muchos de los modelos de idiomas grandes utilizan el chip A100 de NVIDIA, que proporciona una mejora de rendimiento 20 veces mayor que las generaciones anteriores y es "el ancho de banda de memoria más rápido del mundo a más de 2 terabytes por segundo (TB/s)". NVIDIA ofrece IA como servicio para proveedores de servicios en la nube pública y empresas.

Como el tema más de moda en tecnología, ¿la emoción está justificada, en su opinión?

El anuncio de ChatGPT con el modelo de lenguaje grande GPT-3.5 por OpenAI (openai.io) el 30 de noviembre del año pasado llegó a las noticias a lo grande y llamó la atención de los principales medios de comunicación, no solo de la industria tecnológica. Recuerdo que estábamos en una reunión nocturna con un cliente financiero cuando recibimos el anuncio en Tech Wire y todos especulaban sobre lo que traería ChatGPT. Desde este anuncio, hemos visto una gran adopción de CHATGPT GPT-3.5.

A Tooltester.com informe al 20 de marzo de 2023, se proporcionaron algunas estadísticas de OpenAI: ChatGPT tiene 1B visitantes mensuales del sitio web y un estimado de 100 millones de usuarios activos. Más adoptarán con el lanzamiento del nuevo modelo de lenguaje grande GPT-4, que OpenAI indica que se entrenará en 100 billones de parámetros y podrá incorporar texto e imágenes.

La gente común está adoptando ChatGPT para jugar, escribir historias para sus hijos, realizar reescrituras de documentos, crear nuevas comunicaciones, generar contenido nuevo, responder preguntas y recopilar detalles para la investigación. OpenAI Dall-E 2 ha existido por un tiempo y es divertido para crear contenido e imágenes digitales nuevos e interesantes. Por mi parte, creo que las herramientas generativas de IA para el desarrollo de código como OpenAI Codex, que puede escribir código en una docena de idiomas, y Polycoder, una alternativa de versión de código abierto, y Tabnine, que es una herramienta de finalización automática de código IDE, son las más interesantes en términos de recompensa y recompensa, aunque potencialmente las más riesgosas de todas.

¿Puede hablar sobre las formas más impactantes en que la IA está ayudando a transformar las empresas?

Las organizaciones empresariales han aprovechado durante mucho tiempo la IA a través del aprendizaje automático, las redes neuronales y el análisis de datos. Muchos tienen sus propias estructuras en torno a la IA, con científicos de datos y gobernanza en torno a casos de uso específicos relacionados con el uso de la IA para inteligencia empresarial,análisis, telemetría, IA en la nube, etc. Sin embargo, con el ChatGPT de OpenAI, que puede ser adoptado fácilmente por equipos e individuos para sus propios fines, no hay casos de uso específicos de gobernanza o negocios. Sin restricciones sobre el uso de ChatGPT en el entorno empresarial, los equipos y las personas pueden encontrar muchos usos interesantes y técnicas que ahorran tiempo.

Una cosa que es súper convincente es usar ChatGPT para obtener valor y significado del conocimiento generado por humanos que existe dentro de las corporaciones: sitios web internos y wikis, bases de conocimiento, repositorios, preguntas y respuestas, así como fuentes de datos no estructuradas. Usar ChatGPT para capacitación corporativa podría ser interesante. Las personas que aprenden a codificar software pueden usar la IA para ayudarlos a solucionar problemas de su código. Artículo de Forbes Los 10 Principales Usos de ChatGPT en la Industria Bancaria identifica otros casos de uso convincentes: servicio al cliente, detección de fraudes, asistencia virtual, cumplimiento, gestión patrimonial e incorporación de clientes. Como advertencia, las organizaciones empresariales no siempre entienden el riesgo de adoptar IA generativa y pocas organizaciones tienen políticas corporativas, legales o de GCR sobre el uso aceptable de plataformas de IA generativa.

Cuáles son las iniciativas, efectos, historias más emocionantes etc etc. que has escuchado o visto en relación con ChatGPT?

Lo más loco que he leído es dónde se puso a prueba ChatGPT GPT-4 y aprobó los exámenes académicos, aunque hubo una variación en los puntajes resultantes: Barra Uniforme, SAT y GRE (es curioso que se desempeñara mal en la prueba de escritura).

¿Cuáles son los rendimientos esperados asociados con la aplicación de tecnologías basadas en IA?

Utilizaré los cuatro casos de uso centrados en la ciberseguridad del mundo real de Check Point Software Technologies para ML/ DL, que están proporcionando enormes beneficios para la industria de la ciberseguridad. AI/ ML ofrece innovación en eficacia, eficiencia y reducción de falsos positivos; detección y prevención mejoradas, incluida la detección de ataques de día cero vistos por primera vez; detección de anomalías e inteligencia de amenazas para proporcionar detección y mitigación de amenazas conscientes del contexto; identificación y atribución rápida de familias de malware (ADN de malware), incluidas las variantes de malware vistas por primera vez; clasificación rápida de documentos e imágenes.

¿Ha visto consecuencias no deseadas de la aplicación de herramientas basadas en IA en los negocios y, de ser así, puede hablar un poco sobre eso?

Ahh, creo que ya hay consecuencias no deseadas documentadas del uso de ChatGPT. Un caso publicado en Vanderbilt Hustler, el periódico oficial de la Universidad de Vanderbilt, alegó que dos profesores de la Universidad de Vanderbilt usaron ChatGPT para crear una carta a los estudiantes con el fin de compartir información sobre el tiroteo en el campus de la Universidad Estatal de Michigan. Los estudiantes de Vanderbilt descubrieron que la carta distribuida por el profesor fue escrita por ChatGPT y los estudiantes supuestamente estaban perturbados por la falta de conexión personal y empatía. Los profesores tuvieron que hacerse a un lado mientras estaban bajo revisión por no utilizar el proceso típico para la revisión de las comunicaciones.

Otras consecuencias no deseadas pueden ocurrir cuando un usuario ingresa datos restringidos, protegidos o confidenciales, de clientes, negocios o referenciales en ChatGPT o cualquier plataforma generativa de inteligencia artificial. Los informes de los medios de código abierto indican que Walmart, Microsoft, Amazon y otras corporaciones han advertido a sus empleados en memorandos escritos y han creado pautas corporativas sobre posibles violaciones de la confidencialidad al usar IA generativa.

Cómo pueden los desarrolladores de tecnología y los líderes empresariales abordar el problema de sesgo ¿eso se ha encontrado en algunas herramientas basadas en IA?

Un gran inconveniente de la IA es el sesgo del conjunto de datos, el sesgo del algoritmo y que las decisiones de ML carecen inherentemente de conocimiento contextual. OpenAI ha revelado públicamente que ChatGPT es parcial y se ha disculpado públicamente. La Revisión de Tecnología del MIT evaluó ChatGPT GPT-4 e identificó que " Aunque OpenAI ha mejorado esta tecnología, no la ha arreglado por un tiro largo”.

¿Qué más deben saber los directores ejecutivos y los equipos ejecutivos sobre el éxito y el fracaso en la aplicación de tecnologías basadas en IA?

Los directores ejecutivos y los equipos ejecutivos necesitan conocer los límites y las limitaciones de la IA, particularmente en torno a su falta de razonamiento abstracto y sentido común en el mundo real. Los algoritmos requieren enormes conjuntos de datos de entrenamiento para aprender y, una vez creados, son frágiles y fallarán cuando un escenario sea ligeramente diferente al del conjunto de entrenamiento. Son rígidos y no pueden adaptarse después del entrenamiento inicial y, a veces, es difícil interpretar sus decisiones, lo que significa que son opacos. La opacidad algorítmica puede ser particularmente dañina con los modelos de AA en áreas de máximo interés público, como la atención médica.

Este daño puede manifestarse de varias maneras. Una recomendación de tratamiento errónea basada en un modelo de AA puede tener consecuencias potencialmente desastrosas para un paciente o un grupo. La opacidad de los modelos ML significa que la razón del error puede ser imposible de rastrear. La IA no es "el oráculo", no puede responder a todas las preguntas y no debe usarse para tomar decisiones por los humanos, especialmente aquellas decisiones que tienen el potencial de afectar vidas humanas. Los líderes de ética tecnológica siempre deben advertir sobre el sesgo en la IA; sesgo del conjunto de datos, sesgo del algoritmo y que las decisiones de ML son sesgadas, ya que carecen inherentemente de conocimiento contextual.

¿Qué puede enseñarnos la IA sobre lo que significa ser humano en su opinión?

Los avances en IA generativa exigen un enfoque mejorado en el uso ético de la IA y la IA centrada en el ser humano. Lo más importante es que los humanos deberían estar en el centro de la IA. La inteligencia artificial existe para ayudar a los humanos, no al revés. Los humanos siempre deben tener el control de cuándo y cómo quieren usar la IA. Los humanos deben ser conscientes de toda la IA " debajo del capó."Recomiendo el libro IA Centrada en el Ser Humano, por Ben Shneiderman.

¿Qué opinas sobre el futuro de ChatGPT y tecnologías similares?

Tranquilo, le pregunté a ChatGPT! No, en realidad, mi propia predicción es que continuaremos viendo una explosión en las plataformas emergentes de IA generativa y que las usaremos en todos los servicios y aplicaciones en todas partes. Europol advierte que para 2026, el 90% de todo el contenido en Internet será sintético y generado por IA generativa. Y no todo para bien. La IA generativa está detrás de los deepfakes y los voicefakes, ya está siendo utilizada por bandas de ciberdelincuentes para la suplantación de CEO y ataques de fraude, la creación de pornografía no consensuada,etc.

¿Hay algo más que le gustaría compartir con el CyberTalk.org ¿audiencia?

Como guerrero de la seguridad cibernética, tengo un llamado a la acción para que todas las organizaciones formen un consejo o trabajen bajo los auspicios del liderazgo en gestión de riesgos, GRC, asesor jurídico general y la junta directiva y ejecutivos para crear un Marco de Gestión de Riesgos para el uso de IA generativa. El NIST tiene un buen RMF para la IA, que puede ser un buen punto de partida para las organizaciones empresariales. https://www.nist.gov/itl/ai-risk-management-framework

Si su organización permite que los empleados usen ChatGPT y otras plataformas generativas de IA en dispositivos corporativos y redes corporativas, informe de inmediato a todos los empleados sobre el riesgo de violar la confidencialidad corporativa y cree políticas de uso aceptables y barreras de protección para usar estas plataformas. Haga de esto parte de la capacitación en ética corporativa y seguridad cibernética lo antes posible y revise y evalúe continuamente.

Para obtener más información del experto Micki Boland, consulte CyberTalk.org cobertura pasada aqui.

¿Quieres estar al día de las tendencias en tecnología? Echa un vistazo a la CyberTalk.org boletín de noticias! Regístrese hoy para recibir artículos de noticias de primer nivel, mejores prácticas y análisis de expertos; entregado directamente a su bandeja de entrada.

Post Por qué la IA es cada vez más poderosa: Implicaciones para los negocios y la sociedad apareció primero en Charla cibernética.



>>Más