Inteligencia Artificial Generativa
Fundamentos de la Inteligencia Artificial La humanidad está acogiendo la cuarta revolución industrial representada por la tecnología inteligente. Las nuevas tecnlogías como la AI, la IoT, el 5G y la bioingeniería están integreadas en todos los aspectos de a sociedad humana; impulsan cambios en las tendencias macro mundiales, como el desarrollo social sostenible y el crecimiento económico. Nueva energía cinética, mejora de ciudades inteligentes, transformación digital industrial experiencia del consumidor, etc. Una definición propuesta para el término de Inteligencia Artificial ó AI por sus siglas en inglés es la siguiente: “La rama de la informática se ocupa de hacer que las computadoras se comporten como humanos.” — Una definición popular de inteligencia artificial, y una definición anterior en este campo propuesta por John McCarthy| en la Conferencia de Dartmouth en 1956. Sin embargo, parece que esta definición ignora la posibilidad de una IA fuerte. Según otra definición, la inteligencia artificial es la inteligencia (IA débil) demostrada por las máquinas artificiales. La Inteligencia Artificial (IA) es una nueva ciencia técnica que estudia y desarrolla teorías, métodos, técnicas y sistemas de aplicación para simular y ampliar la inteligencia humana. En 1956, el concepto de IA fue propuesto por primera vez por John McCarthy, quien definió el tema como “ciencia e ingeniería de la fabricación de máquinas inteligentes, especialmente programas informáticos inteligentes”. La IA se preocupa por hacer que las máquinas funcionen de una manera inteligente, similar a la forma en que funciona la mente humana. En la actualidad, la IA se ha convertido en un curso interdisciplinario que involucra varios campos. El aprendizaje automático se puede entender desde múltiples aspectos. Tom Mitchell, un científico global de aprendizaje automático, proporcionó una definición ampliamente citada: “Se dice que un programa informático aprende de la experiencia E con respecto a alguna clase de tareas T y la medida de rendimiento P si su rendimiento en tareas en T, medido por P, mejora con la experiencia E”. Estas definiciones son simples y abstractas. Sin embargo, a medida que profundizamos nuestra comprensión del aprendizaje automático, encontraremos que la connotación y la extensión del aprendizaje automático están cambiando con el tiempo. Debido a que una variedad de campos y aplicaciones están involucrados y el aprendizaje automático se desarrolla rápidamente, no es fácil definir el aprendizaje automático de forma sencilla y clara. En general, los sistemas de procesamiento y los algoritmos de aprendizaje automático (ML) son un modo de identificación que realiza la predicción mediante la búsqueda de un modo oculto en los datos. Ml es un importante subcampo de IA, que también se cruza con la minería de datos (DM) y el descubrimiento de conocimiento en la base de datos (KDD), para una mejor comprensión y distinción de la inteligencia artificial, el aprendizaje automático, la minería de datos, el reconocimiento de patrones, las estadísticas y la computación neuronal. ¿Qué es el aprendizaje automático? El aprendizaje automático ó Machine Learning (incluido el aprendizaje profundo) es un estudio de algoritmos de aprendizaje. Se dice que un programa informático aprende de la experiencia E con respecto a alguna clase de tareas T y la medida de rendimiento P si su rendimiento en tareas en T, medido por P, mejora con la experiencia E. Escenarios de aplicación de aprendizaje automático La solución a un problema es compleja o el problema puede implicar una gran cantidad de datos sin una función de distribución de datos clara. ¿Qué es el aprendizaje profundo? Generalmente, la arquitectura de aprendizaje profundo o Deep Learning es una red neuronal profunda. “Profundo” en “aprendizaje profundo” se refiere al número de capas de la red neuronal. La red se construye simulando la red neuronal humana. En el diseño y aplicación de redes neuronales artificiales, deben tenerse en cuenta los siguientes factores: funciones de neuronas, modos de conexión entre las neuronas y aprendizaje en red (entrenamiento). Relación de IA, aprendizaje automático y aprendizaje profundo IA: Una nueva ciencia técnica que se centra en la investigación y el desarrollo de teorías, métodos, técnicas y sistemas de aplicación para simular y ampliar la inteligencia humana. Aprendizaje automático: Un campo de investigación básico de la IA. Se centra en el estudio de cómo las computadoras pueden obtener nuevos conocimientos o habilidades mediante la simulación o realización del comportamiento de aprendizaje de los seres humanos, y reorganizar la arquitectura de conocimiento existente para mejorar su rendimiento. Es uno de los principales campos de investigación de la IA. Aprendizaje profundo: Un nuevo campo de aprendizaje automático. El concepto de aprendizaje profundo se origina en la investigación sobre redes neuronales artificiales. El perceptron multicapa (MLP) es un tipo de arquitectura de aprendizaje profundo. El aprendizaje profundo tiene como objetivo simular el cerebro humano para interpretar datos como imágenes, sonidos y textos. Tomado de https://forum.huawei.com/enterprise/es/%C2%BFqu%C3%A9-es-la-inteligencia-artificial-ai-y-cu%C3%A1les-son-sus-principales-tecnolog%C3%ADas/thread/667225022449729536-667212895009779712 En la actualidad, hay tres enfoques principales de inteligencia artificial: simbolismo, conexionismo y conductismo. Los primeros referentes de la historia de la Inteligencia Artificial tuvieron sus inicios desde 1956 y desde entonces el desarrollo tecnológico junto con la transformación digital han sido fundamentales para el desempeño actual y prometedor futuro de esta tecnología. Simbolismo en Inteligencia Artificial El simbolismo también se llama lógica, escuela de psicología o escuela de psicología. Su principio es principalmente la asunción del sistema de símbolos físicos (es decir, el sistema operativo simbólico) y el principio de racionalidad limitada, que está representado principalmente por el sistema de aplicación de gráficos de conocimientos. Pertenece a la categoría de inteligencia artificial moderna, y simula el comportamiento de la inteligencia humana basado en el método de simulación inteligente del razonamiento lógico. La esencia es simular el pensamiento lógico abstracto del cerebro humano, estudiando el mecanismo de función del sistema de cognición humano, describir el proceso de cognición humana con algún símbolo, e imitar el proceso de cognición humana introduciendo el símbolo en el ordenador que puede manejar símbolos, en pocas palabras, “la cognición es cálculo”. El gráfico de conocimiento aboga por el uso de métodos lógicos para establecer un sistema de teoría unificado de la inteligencia artificial, pero se ha encontrado con el obstáculo del problema del “sentido común”. Conexionismo en Inteligencia Artificial El conexionismo también se llama escuela
Prospectiva Tecnológica
Dentro de las herramientas más importantes están las bases de datos https://www.youtube.com/watch?v=-W5XRomjn_s Algunos sitio que vale la pena visitar Tecnologías nuevas, Referencias a nuevas propuestas ATOS Una propuesta fuera de serie, donde encontraras propuestas nuevas incluyendo la revista de seguridad CNCF Como parte de Linux Foundation, brindan soporte, supervisión y dirección para proyectos nativos en la nube de rápido crecimiento, incluidos Kubernetes, Envoy y Prometheus. OpenAI La fundación que contribuyo al cambia, el siguiente paso de la inteligencia artificial . . Algunas tecnologías Aquí están algunas ligas a sitio que ofertan estas tecnologías, algunas son “free” en su versión individual o personal ngrok Su oferta de servicios, ngrok es una API simplificada de ingreso como servicio que agrega conectividad, seguridad y observabilidad a sus aplicaciones en una sola línea Cloudflare La arquitectura de Cloudflare te ofrece un conjunto integrado de servicios para las capas de red 3 y 7, accesibles desde un único panel de control. Está diseñada para ejecutar todos los servicios en todos los servidores de cada centro de datos de nuestra red global Tailscale Acceso remoto seguro a los recursos compartidos Tailscale conecta los dispositivos y los entornos de desarrollo de su equipo para facilitar el acceso a los recursos remotos Double Octopus El Octopus Authenticator reemplaza los passwords vulnerables con un autenticador multi-factor (MFA) passwordless que proporciona mayor protección, mejor experiencia para el usuario y menor costo de operación. Autentificación sin password??? La autenticación sin contraseña llega al horario de máxima audiencia El mundo ha superado el punto en el que una simple contraseña puede proporcionar suficiente protección, afirma David Burden, CIO de la firma de tecnología de gestión de acceso e identidad de fuente abierta ForgeRock. Estimulado por el estándar FIDO2, el paso a la autenticación sin contraseña está cobrando impulso. Ahora es la tendencia más grande para las empresas de software empresarial, dice Burden. “Los jugadores más importantes de la industria, incluidos Apple, Microsoft y Google, entre otros, han ayudado a expandir el estándar FIDO2, anunciando planes para habilitar la autenticación sin contraseña en múltiples dispositivos, navegadores y plataformas”. Señala la predicción de Gartner de que, para 2025, más del 50 % de la fuerza laboral y más del 20 % de las transacciones de autenticación de clientes no tendrán contraseña, un aumento importante con respecto al menos del 10 % actual. La autenticación sin contraseña también promete mejorar significativamente la experiencia del cliente. “Con un extenso proceso de autenticación empresarial, un usuario puede iniciar sesión en una cuenta en línea sin tener que ingresar una contraseña”, explica Burden. “Esto elimina la preocupación por las contraseñas olvidadas y la tediosa tarea de recuperar la contraseña”. La autenticación sin contraseña también ahorra tiempo. “Protege los recursos empresariales vulnerables y de uso más común al mismo tiempo que brinda una experiencia de usuario excepcional y aumenta la productividad de la fuerza laboral”, dice Burden. En general, señala, FIDO2 tiene el potencial de mejorar tanto la seguridad como la facilidad de uso para el acceso en línea al mismo tiempo que disminuye en gran medida el riesgo de robo de credenciales por parte de los ciberdelincuentes. Estándar FIDO2 FIDO2 es el término general para el conjunto de especificaciones más reciente de FIDO Alliance. FIDO2 les permite a los usuarios sacar provecho de dispositivos comunes para autenticarse fácilmente en los servicios en línea en entornos móviles y de escritorio Las especificaciones de FIDO2 son la especificación de autenticación web (WebAuthn) del World Wide Web Consortium (W3C) y el protocolo de cliente a autenticador (CTAP) correspondiente de FIDO Alliance.
Seguridad Informática
01 Seguridad TI? La seguridad informática, también conocida como ciberseguridad,1 es el área relacionada con la informática y la telemática que se enfoca en la protección de la infraestructura computacional y todo lo vinculado con la misma, y especialmente la información contenida en una computadora o circulante a través de las redes de computadoras. Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas, y leyes concebidas para minimizar los posibles riesgos a la infraestructura y/o a la propia información. Leer más En los últimos años, la seguridad informática se ha convertido en un tema de interés público. Tanto expertos en la materia como usuarios generales utilizan términos como “clave de usuario”, “contraseña (o password)”, “fraude informático”, “hacker”, etcétera. Hoy por hoy no solo es deseable, sino indispensable, tener conocimientos firmes relacionados con este tema, pues sin ellos el usuario de computadoras podría caer en un estado de ndefensión que ponga en peligro no solo su información o equipo, sino su propia integridad. Leer más Seguridad informática tienen como objetivo asegurar la confidencialidad, integridad y disponibilidad de la información, estos son llamados los tres pilares de la seguridad informática – CID La confidencialidad, que asegura que sólo las personas autorizadas tengan acceso a la información. La integridad, que salvaguarda la exactitud e integridad de la información y de los métodos de procesamiento. La disponibilidad, que asegura el acceso de los usuarios autorizados a la información y a los activos relacionados cuando es necesario. Existen autores que colocan un cuarto pilar llamado autenticación Existen autores que manejas 4 conceptos más que son: Eficacia ( satisface las necesidades del consumidor ), Eficiencia ( sí la información que satisface las necesidades ), Fiabilidad ( que se considera que es verdadera y creíble ) y Conformidad ( información debe ajustarse a unas especificaciones ). 02 Reglas Hablemos de estándares, protocolos, métodos, reglas, herramientas, y leyes Existen en el mercado diversos estándares que tratan de cubrir las áreas de protección de datos y la infraestructura de las empresas y negocios. Entre ellas podemos encontrar las normas ISO, BC, entre otras. Y existen marcos de trabajo, herramientas, procedimientos y mejores practicas para la implementación de estas normas 03 Algunas normas y marcos de trabajo Los marcos de trabajo son herramientas que sirven como referencia para llevar a cabo un buen gobierno corporativo, mediante el cual se planteen y ejecuten las estrategias pertinentes en torno a la gestión ideal de las tecnologías de la información (IT) La norma de seguridad de la información es la ISO 27001 1 Norama ISO 27001:2017 Se trata de la norma dedicada a Sistemas de Gestión de la Seguridad de la Información. Esta norma recoge todos los requisitos necesarios con los que una organización debe contar para poder garantizar que su gestión de datos e información es segura, asegurando su confidencialidad, integridad y disponibilidad. Leer más sobre ISO 27001 2 NIST Cybersecurity Framework (CSF) El Marco fue concebido bajo las premisas de identificarlas normas y directrices de seguridad aplicablesen todos los sectores de infraestructura crítica,proporcionando un enfoque flexible y repetible, quepermite la priorización de actividades y apunta aobtener un buen rendimiento de las infraestructuras,manteniéndose rentable para el negocio. Leer más sobre NIST-CSF 3 COBIT – ISACA Un marco de trabajo (framework) para el gobierno y la gestión de las tecnologías de la información (TI) empresariales y dirigido a toda la empresa. COBIT, un acrónimo que significa Control Objetives for Information and Related Technology (Objetivos de Control para la Información y Tecnología Relacionada) Leer más sobre COBIT 4 ITIL – Axelos Biblioteca de Infraestructura de Tecnologías de la Información (por sus siglas en inglés, Information Technology Infrastructure Library) Es una metodología que involucra una serie de buenas prácticas en la gestión de TI. Abarca la infraestructura del área, el mantenimiento y la operación de los servicios de TI. Su aplicabilidad incluye tanto a los sectores operativos como a los estratégicos. El ITIL sirve para construir un entorno de TI estable y escalable, promoviendo una mejor prestación de servicios y atención al cliente. Axelos es la propietaria de ITIL Leer más sobre ITIL 5 Otros estándares UNE – La Asociación Española de Normalización es el único organismo de normalización en España, designado por el Ministerio de Economía, Industria y Competitividad ante la Comisión Europea ISA – International Society of Automation. IEC – International Electrotechnical Commision. SO – International Organization for Standardization. NIST – National Institute of Standards and Technology. UAE National Electronic Secutiry Authority. API – American Petroleum Institute. AWWA – American Water Works Association. NERC – North american Electri Reliability Counci 04 Seguridad en hardware El objetivo es proteccion del hardware en categorias como Servidores Equipos de comunicación Equipos de escritorio Equipos portátiles El tema de endurecimiento es tocado en la siguiente sección “Endurecimiento” Leer más sobre Endurecimiento 05 Políticas de seguridad Este tema, por su importancia, debe tener un apartado especial ya que de esto depende toda la estructura de seguridad informática de un negocio o empresa Por esto hemos colocado todo un apartado aqui 06 Gestión de riesgos, evaluación de riesgos o análisis de riesgos Riesgo El riesgo es la posibilidad de que el resultado difiera de lo esperado . Generalmente, cuando hablamos de riesgo empresarial, nos referimos a posibles impactos y consecuencias negativos de un evento o decisión. En los negocios, siempre habrá un cierto grado de riesgo que cualquier organización deberá afrontar para alcanzar sus objetivos. En esencia, el riesgo es un requisito fundamental para el crecimiento, el desarrollo, las ganancias y la prosperidad. En una amplia gama de todas las industrias comerciales, incluida la atención médica, las finanzas, la contabilidad, la tecnología y la cadena de suministro , los riesgos gestionados eficazmente brindan caminos hacia el éxito. Pero como cualquier camino, es necesario conocer todos los recovecos, desvíos y peligros que se encuentran en el camino. Aunque los riesgos son parte de hacer negocios, debemos encontrar formas de identificarlos y gestionarlos de manera rápida y efectiva, ya que a menudo pueden surgir de la nada, creando
Software Libre
Manifiesto de Software Libre El 24 de abril del 2002 se realizó la ultima modificación al Manifiesto de Software Libre en México. Este manifiesto sigue vivo y es una fuente muy bien informada de lo que seria el Software Libre en México. En la siguiente liga podremos acensar a el: Manifiesto de Software Libre 01 El Reto La noción de software libre se formalizó a inicios de los años 80. Hoy, este movimiento iniciado por algunos investigadores se ha convertido en un fenómeno social. Millones de usuarios (particulares, asociaciones y ONG, empresas, colectivos y administraciones…) ejercen a diario las cuatro libertades asociadas al software libre: utilizar, estudiar, modificar, copiar/redistribuir. El reto es: Social Económico Estratégico Leer más 02 Soluciones Existen diversas soluciones en el ámbito del Back-end, del Front-end, en sistemas operativos, en el ámbito del diseño gráfico, en control de procesos, en seguridad informática, sobrero blanco, en móviles, etc. Es casi imposible tocarlos todos por lo que iremos colocando en esta sección ligas y referencias a los utilizados mas comúnmente En sistemas FOSS? Los programas libres y de código abierto (también conocidos como FOSS o FLOSS, siglas de Programas Libres y de Código Abierto, (en inglés) es el software1 que está licenciado de tal manera que los usuarios pueden estudiar, modificar y mejorar su diseño mediante la disponibilidad de su código fuente. El término: “programas libres y de código abierto” abarca los conceptos de programas libres y programas de código abierto, que, si bien comparten modelos de desarrollo similares, tienen diferencias en sus aspectos filosóficos que destaca la Free Software Foundation Más información Algunas distribuciones de Linux Aqui encontraras un resumen de las distribuciones de Linux Linea de tiempo de distribuciones de Linux Se muestra una linea de tiempo de las distribuciones de Linux Una historia del Open Source Una historia tipo line de tiempo del Open SOurce Algunas distribuciones de SO de open source Una pequeña lista de los principales sistemas operativos tipo open source Algunos productos open source para negocios Una referencia a algunos productos open source para negocios Comparativa de SO tipo open source Un clásico, comparativa de sistemas operativos open source Una buena referencia a FOSS Un sitio excelente para FOSS Lista de distribuciones de proposito especifico Una lista de distribuciones de Open Source de propósito especifico Hablemos sobre Linux Sin duda es una plataforma que ha venido a revolucionar las TI y sabiendo la importancia de este sistema en servidores, preparamos un compendio de libros y referencias, que con fines didacticos, ponemos a tu disposición