La herramienta que nació como un proyecto militar con el fin de mantener la comunicación entre diferentes puntos de Estados Unidos, se ha convertido en algo fundamental en nuestro día a día.
¿Quién se acuerda de la
vida antes de que este
fenómeno apareciera?
Y
no fue hace tanto, pues su nacimiento oficial fue en 1969 tras más de 50.
Colombia se conecta a internet, el 4 tras más de 50 años de
junio de 1994; por medio de una señal que utiliza impsat se redirecciona desde
la torre Colpatria y llega a unidades. A partir de este año se organiza el
panorama para el desarrollo de la internet.
Primera conexión
La primera conexión fue
entre los ordenadores de Stanford y Ucla, momento en el que también nació arpa
.
Poco después de este acontecimiento se podían numerar con los dedos de una mano las universidades conectadas.
01
Red que acabó denominándose
ARPANET y su objetivo era
mantener estas comunicaciones
en caso de guerra.
02
No fue hasta 1970 cuando
ARPANET se consolidó del todo.
Momento en el que Roy Tomlinson
envió su primer email
03
Aparece el virus llamado
Creeper
Como en toda historia importante, siempre hay varias fechas señaladas. En los 80 el número de ordenadores fue aumentando y su demanda creciendo a la par
1). 1982 empieza a producirse una
mejora de sus capacidades con la
creación de los emoticonos.
2). 1989, Tim Bernes Lee, describió el
protocolo de transferencia de
hipertextos dando lugar a la
primera web a través de 3 nuevos
recursos: HTTP, HTML y Web
Browser.
3). 1991 los usuarios externos pudieron acceder a esta información. Desde entonces el mundo digital empezó a crecer a un ritmo agigantado.
WWW
World Wide Web que en tan solo cuatro años pasó de 100 World Wide Sites a más de 200.000.
1). En 1994 se funda Yahoo! y
justo al año siguiente
Microsoft lanza Internet
Explorer
2). 1998 nace Google
3). 2001 se conoce como el
nacimiento de Wikipedia, la
enciclopedia digital.
2003 y 2005
Se generan varios hitos en la
evolución de internet gracias a la
aparición de diferentes
plataformas,
De la web estática a la web
ubicua: ¿qué es y cómo
hemos llegado a la Web 4.0?
Web 1.0
La Web 1.0 es la original, el
principio, el primer contacto que
tuvimos con un entramado de
páginas web, en las que
básicamente nos limitábamos a
consumir contenido sin más
actualización o interacción.
Web 2.0
La Web 2.0, por su parte, fue la
primera gran evolución. La
conocida web social nos ha
permitido intercambiar
información entre usuarios a
través de blogs o las populares
redes sociales que hoy usan
millones de usuarios en todo el
mundo.
Web 3.0
La Web 3.0 o web semántica es un salto
tecnológico desde esa versión 2.0. En la Web 3.0,
la clave y principal factor diferencial es el cómo
accedemos a la información. Aquí los buscadores
son clave pero no por sus mejores algoritmos,
mayor indexación de información u otros extras,
lo son porque permiten hacer uso de un lenguaje
más natural, de forma que obtenemos una web
(información) más personalizada, descartando
información que para cada uno de nosotros será
irrelevante.
Web 4.0
La Web 4.0 es el próximo gran avance y se centra
en ofrecer un comportamiento más inteligente,
más predictivo, demodo que podamos con sólo
realizar una afirmación poner en marca un
conjunto de acciones que tendrán como
resultando aquello que pedimos o decimos.
¿PARA QUÉ SIRVE LA WEB 4.0?
Esta nueva versión de la red se basa en explotar toda la
información que ahora mismo contiene, pero de una forma
más natural y efectiva.
Estas son sus funcionalidades
Un nivel de interacción más completo y personalizado. Es
decir, puedes decirle «Reserva una mesa para cenar hoy» o
«Pide un taxi» a tu dispositivo -que puede ser un smartphone,
wearable o quién sabe cuál- y automáticamente ejecuta dicha
acción sin más intervención propia.
Ofrece soluciones a partir de toda la información que existe
en la web.Para lograrlo, se fundamenta en cuatro pilares.
1. La comprensión del lenguaje natural y tecnologías Speech to
text (de voz a texto y viceversa).
2. Nuevos sistemas de comunicación máquina a máquina
(M2M).
3. Uso de la información de contexto. Por ejemplo, ubicación
que aporta el GPS, ritmo cardiaco que tu smartwatch registra,
etc.
4. Nuevo modelo de interacción con el usuario.
¿Cómo llegamos a la Web 4.0.?
Gracias a la propia evolución de la tecnología. Empresas
como Google, Microsoft o Facebook, entre otras, están
desarrollando nuevos sistemas que gracias al Deep Learning
y Machine Learning serán capaces de procesar información
de forma similar a como lo haría el cerebro humano.
¿Machine Learning?
Es una disciplina del campo de la Inteligencia Artificial que, a través
de algoritmos, dota a los ordenadores de la capacidad de identificar
patrones en datos masivos y elaborar predicciones (análisis
predictivo). Este aprendizaje permite a los computadores realizar
tareas específicas de forma autónoma, es decir, sin necesidad de ser
programados.
Aprendizaje supervisado:
Estos algoritmos cuentan con un aprendizaje previo basado en un
sistema de etiquetas asociadas a unos datos que les permiten tomar
decisiones o hacer predicciones. Un ejemplo es un detector de spam
que etiqueta un e-mail como spam o no dependiendo de los patrones
que ha aprendido del histórico de correos (remitente, relación
texto/imágenes, palabras clave en el asunto, etc.).
Aprendizaje no supervisado:
Estos algoritmos no cuentan con un conocimiento previo. Se
enfrentan al caos de datos con el objetivo de encontrar patrones que
permitan organizarlos de alguna manera. Por ejemplo, en el campo
del marketing se utilizan para extraer patrones de datos masivos
provenientes de las redes sociales y crear campañas de publicidad
altamente segmentadas.
Aprendizaje por refuerzo:
Su objetivo es que un algoritmo aprenda a partir de la propia
experiencia. Esto es, que sea capaz de tomar la mejor decisión ante
diferentes situaciones de acuerdo a un proceso de prueba y error en
el que se recompensan las decisiones correctas. En la actualidad se
está utilizando para posibilitar el reconocimiento facial, hacer
diagnósticos médicos o clasificar secuencias de ADN.
¿Qué es deep learning? :
Deep learning es un subconjunto de machine learning (que a su vez es
parte de la inteligencia artificial) donde las redes neuronales,
algoritmos inspirados en cómo funciona el cerebro humano,
aprenden de grandes cantidades de datos.
Los algoritmos de deep learning realizan una tarea repetitiva que
ayuda a mejorar de manera gradual el resultado a través de ‘’deep
layers’’ lo que permite el aprendizaje progresivo. Este proceso forma
parte de una familia más amplia de métodos de machine learning
basados en redes neuronales.
Características de deep learning
• Asistente de experimentos
Inicie y supervise los experimentos de entrenamiento por lotes y luego
compare el rendimiento entre modelos en tiempo real sin preocuparse
por las transferencias de registro y los scripts para visualizar los
resultados.
• Cómputo de GPU elástico
Capacite redes neuronales en paralelo, utilizando las GPU K80, P100 y V100 de
NVIDIA Tesla, que son líderes del mercado. Pague sólo por lo que utiliza. Con la
asignación automática, no tiene que acordarse de cerrar sus instancias de
capacitación en la nube. No hay clústeres o contenedores para administrar.
Beneficios de deep learning :
• Ahorre tiempo, y no solo dinero
Utilice su IDE preferido y sus flujos de trabajo existentes. La CLI, la biblioteca
Python y el acceso REST están equilibrados mediante herramientas de
depuración visual. Diseñe y optimice sus redes mejor y más rápido.
• Inteligencia bajo demanda
El entrenamiento gestionado implica que usted se puede enfocar en el diseño
de estructuras de red neuronales óptimas. Los activos de entrenamiento se
almacenan para usted. La asignación automática significa que sólo paga por los
recursos de cálculo necesarios para el trabajo.
• Infraestructura de nube confiable
Optimizado para entornos de producción empresarial, se ejecuta en la misma
infraestructura que hospeda los servicios cognitivos de IBM Watson.
• Colaboración en equipo
Comparta experiencias, depure arquitecturas neuronales, acceda a datos
comunes en bibliotecas alojadas y entregue modelos versionados a su equipo
para ayudar a alimentar un flujo continuo de aprendizaje con datos.
