martes, 16 de octubre de 2018

¿Qué es Internet?



ACTIVIDADES

1. Buscar 3 conceptos de Internet
2. ¿Qué es un servidor de Internet?
3. ¿Qué es un cliente de Internet?
4. ¿Qué es DNS (Servidor de Nombres de Dominio)?
5. ¿Qué es una mascara de red?
6. ¿Qué es una dirección ip?
7. ¿Qué es una url?
8. ¿Qué es un protocolo de la red?
9. ¿Qué es http?
10. ¿Qué es https?
11. ¿Qué es tcp/ip?
12. La historia del Internet

RESPUESTAS 

1.
*Internet es la unión de todas las redes y computadoras distribuidas por todo el mundo, por lo que se podría definir como una red global en la que se conjuntan todas las redes que utilizan protocolos TCP/IP y que son compatibles entre sí.

*Internet es una red de computadoras que se encuentran interconectadas a nivel mundial para compartir información. Se trata de una red de equipos de cálculo que se relacionan entre sí a través de la utilización de un lenguaje universal.

*Internet es una red global de miles de millones de computadoras y otros dispositivos electrónicos.

2.
El servidor de Internet almacena los ficheros que componen una página web y también contiene diferentes fragmentos que controlan la forma en la que los usuarios pueden acceder a estos ficheros.

3.
La expresión cliente servidor se utiliza en el ámbito de la informática. En dicho contexto, se llama cliente al dispositivo que requiere ciertos servicios a un servidor. La idea de servidor, por su parte, alude al equipo que brinda servicios a las computadoras (ordenadores) que se hallan conectadas con él mediante una red.

4.
Las DNS son las siglas que forman la denominación Domain Name System o Sistema de Nombres de Dominio y además de apuntar los dominios al servidor correspondiente, nos servirá para traducir la dirección real, que es una relación numérica denominada IP, en el nombre del dominio.

5.
Combinación de bits que sirve para delimitar el ámbito de una red de computadoras Sirve para que una computadora determine si debe enviar los datos dentro o fuera de la red.



6.
Las direcciones IP son un número único e irrepetible con el cual se identifica una cmputadora conectada a una red que corre el protocolo IP.

7.
URL es una sigla del idioma inglés correspondiente a Uniform Resource Locator (Localizador Uniforme de Recursos). Se trata de la secuencia de caracteres que sigue un estándar y que permite denominar recursos dentro del entorno de Internet para que puedan ser localizados.

8.
Protocolo es el término que se emplea para denominar al conjunto de normas, reglas y pautas que sirven para guiar una conducta o acción. Red, por su parte, es una clase de estructura o sistema que cuenta con un patrón determinado.

9.
Abreviatura de la forma inglesa Hypertext Transfer Protocol, ‘protocolo de transferencia de hipertextos’, que se utiliza en algunas direcciones de internet.

10.
HTTP es el acrónimo de Hypertext Transfer Protocol (en español protocolo de transferencia de hiper texto). HTTPS es igual pero añadiéndole "Seguro". Estos dos protocolos se usan para lo mismo, la transferencia de datos.

11.
TCP/IP son las siglas de Protocolo de Control de Transmisión/Protocolo de Internet un sistema de protocolos que hacen posibles servicios Telnet, FTP, E-mail, y otros entre ordenadores que no pertenecen a la misma red.

12.
La historia de Internet comenzó hace tres décadas, cuando la comunidad científica buscaba con esfuerzo una forma rápida y efectiva de compartir información, conocimientos y éxito.

El surgimiento de los ordenadores propició el origen de la plataforma abierta donde intercambiaban documentos estructurados de forma fiable y universal.

Los ordenadores estaban vinculados entre sí para almacenar la información entre las universidades, organizaciones de defensa y sitios gubernamentales pero, no contaban con un estándar común con el que comunicarse, la información no pasaba entre sistemas diferentes.

En este contexto, a finales de los años 60 nació la ARPAnet (Advanced Research Projects Agency) que puso a disposición de los científicos una red análoga llamada NSFnet, creada por la NSF (National Science Foundation).

Esta red permitió la comunicación entre muchas universidades y desarrolló un nuevo sistema de comunicación para desarrollar protocolos llamado “conmutación de paquetes”.

En este sistema los mensajes de datos eran transmitidos en diferentes paquetes, cada uno de ellos con la información sobre el control de errores.

Estos paquetes podían tomar diferentes caminos en dependencia de la saturación de la red, y rehacerse al llegar al destino. Así comenzaron a crecer las redes.

Esa red de transmisión de datos tenía en principio objetivos estrictamente militares, encaminados a mantener la comunicación a cualquier precio en caso de un ataque nuclear. Su creación atrajo de inmediato la atención de los profesionales del mundo entero.

En la década de los 70 apareció el Protocolo de Control de Transmisión/Protocolo de Internet (TCP/IP), en el que basaban los servicios de Internet y los mensajes de correo electrónico.

Los estándares desarrollados en ese periodo pasaron en los años 80 a la Agencia de Comunicación de Defensa del Departamento de Defensa de los Estados Unidos, que se convirtió en su guardián hasta que se pasaron al Internet Architecture Board cuando nació el boom de Internet.

A finales de los ochenta, la cantidad de usuarios conectados a la red creció notablemente y, lo que es más importante, comenzó a internacionalizarse.
Entonces el uso de la red se limitaba a intercambiar mails y a disponer de una biblioteca global con la información más actualizada del planeta. Identificar y localizar una información determinada era una tarea difícil.

Comenzó a vislumbrarse la posibilidad de conectar todas las redes existentes en el mundo, pero para conseguirlo era necesario crear una forma estándar de almacenar los datos que pudiera verse desde cualquier plataforma informática.

Quien investigaba cómo los ordenadores podían almacenar información con vínculos aleatorios y propuso la idea de un espacio hipertexto global en el que cualquier información accesible por la red se podría referenciar por medio de un único Identificador Universal de Documento.

En 1989 desde el CERN (Conseil Européen pour la Recherche Nucléaire, Organización Europea para la Investigación Nuclear) con sede en Suiza,Berners-Lee presentó un software basado en protocolos que permitían visualizar la información utilizando el hipertexto.

Con esta especie de pseudolenguaje era posible incrustar objetos, como imágenes y videos, así como referencias en forma de vínculos; los muy conocidos links, a través de los cuales es posible visualizar y acceder a otros documentos, no sólo del propio ordenador, sino también de ordenadores remotos, e incluso generados y almacenados en plataformas diferentes.

Así nació HTML (HyperText Markup Language o Lenguaje de Etiquetas de Hipertexto), que se convertiría en el estándar de diseño Web en los años posteriores.
También se desarrollaron otras especificaciones como URL e HiperTexto Transfer Protocolo (HTTP) o Protocolo de transferencia de Hipertexto publicadas en el primer servidor y que lograron una amplia difusión.

Estas especificaciones se extendieron rápidamente entre los profesionales y entre los años 1991 a 1994, la carga en el primer servidor Web info.cern.chaumentó diez veces cada año.

De inmediato un grupo de estudiantes de la universidad de Illinois, entre los que destacaba Marc Andreessen, se dedicó a mejorar aspectos del mismo, especialmente la adición del GUI (Graphical User Interface) que sirvió de base para adaptar el lenguaje al entorno gráfico Microsoft Windows.

Llegó entonces un tiempo de crecimiento vertiginoso e imparable. Se desarrollaron varios navegadores para diferentes tipos de ordenadores.

Con el lanzamiento del navegador Mosaic por la NCSA (National Center for Supercomuting Applications) la red comenzó a ser accesible para todos los públicos.

Andreessen y otros investigadores fundaron la Netscape Communication Corporation que produjo la primera versión de este navegador, y Microsoft, para no quedar a la zaga, lanzó Microsoft Internet Explorer, dando inicio a la llamada batalla de los navegadores por el dominio del mercado, fenómeno que fomentó la aparición arbitraria de formas no estándar del HTML.

Para definir una dirección futura, Tim Berners-Lee creó el World Wide WebConsortium (W3C) en 1994, www.w3.org, que desde entonces interviene como un foro neutral donde empresas y organizaciones pueden discutir y ponerse de acuerdo sobre nuevos protocolos informáticos.

Esta entidad, sin ánimo de lucro está financiada por un número importante de miembros corporativos, entre los que destacan los conocidos Compaq, Microsoft, AOL, Sun y AT&T, entre otros.

Su objetivo principal es desarrollar estándares tecnológicos disponibles para todos, que garanticen el crecimiento homogéneo de la Web.

Entre los más conocidos está el propio HTML, CSS (Cascading Style Sheets), XML (Extensible Markup Language) y DOM (Document Object Model).

El hecho de trabajar con estándares facilita a programadores y diseñadores la compatibilidad necesaria para crear sitios Web, dinámicos, eficaces y descargables desde cualquier dispositivo o plataforma.

Aquellas tecnologías, desarrolladas en sus orígenes con el fin de solucionar las necesidades básicas de la comunicación entre militares y científicos, sirvieron de base para crear un escenario especial que pronto se convirtió en el medio de comunicación, cooperación y comercio más grande e importante del mundo: Internet.

No hay comentarios:

Publicar un comentario