sábado, 27 de junio de 2009

MEMORIA RAM


La memoria de acceso aleatorio, (en inglés: Random Access Memory cuyo acrónimo es RAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultados. Es el área de trabajo para la mayor parte del software de un computador.[1] Existe una memoria intermedia entre el procesador y la RAM, llamada caché, pero ésta sólo es una copia de acceso rápido de la memoria principal almacenada en los módulos de RAM.[1] Los módulos de RAM son la presentación comercial de este tipo de memoria, se compone de integrados soldados sobre un circuito impreso.
Se trata de una memoria de
estado sólido tipo DRAM en la que se puede tanto leer como escribir información. Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se dicen "de acceso aleatorio" o "de acceso directo" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible.

Integrado de silicio de 64 bits sobre un sector de memoria de núcleo (finales de los 60)
La frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y
servidores. En el sentido estricto, estos dispositivos contienen un tipo entre varios de memoria de acceso aleatorio , ya que las ROM, memorias Flash , caché (SRAM) , los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición.

miércoles, 24 de junio de 2009

QUE ES MEMORIA ROM


Es un sistema de memoria que almacena información de forma temporal mientras se utiliza el ordenador (al apagarse se pierde


es la memoria volátil, cuando se apaga el ordenador lo que había en esa memoria desaparece y no vuelve a recuperarse.


La sigla corresponde a las palabras inglesas Random Access Memory. Un tipo de memoria que se usa en computadoras y microprocesadores sobre la cual se puede escribir y leer. Permite el acceso directo e independiente a cualquier información allí guardada.. (Whitcomb, Beckwith)


Es un sistema de memoria que almacena información de forma temporal mientras se utiliza el ordenador (al apagarse se pierde


memoria RAM es otro punto importante dentro del ordenador. La RAM (Random Access Memory) es una memoria muy rapida. ...

Memoria de Acceso Aleatorio. Es una zona de almacenamiento temporal, entre cuyas características están ser de lectura y escritura, pudiéndose acceder a la información aquí almacenada, con el objeto de modificarla.






martes, 23 de junio de 2009

QUE ES UN DISCO DURO


Un disco duro o disco rígido (en inglés hard disk drive) es un dispositivo de almacenamiento no volátil, que conserva la información aun con la pérdida de energía, que emplea un sistema de grabación magnética digital; es donde en la mayoría de los casos se encuentra almacenado el sistema operativo de la computadora. Dentro de la carcasa hay una serie de platos metálicos apilados girando a gran velocidad. Sobre los platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares para comunicar un disco duro con la computadora; las interfaces más comunes son Integrated Drive Electronics (IDE, también llamado ATA) , SCSI generalmente usado en servidores, SATA, este último estandarizado en el año 2004 y FC exclusivo para servidores.
Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes se deben definir en él un
formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema.
También existe otro tipo de discos denominados de
estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya se puede encontrar en el mercado unidades mucho más económicas de baja capacidad (hasta 128 GB) para el uso en computadoras personales (sobre todo portátiles). Así, el caché de pista es una memoria de estado sólido, tipo memoria RAM, dentro de un disco duro de estado sólido.
Su traducción del inglés es unidad de disco duro, pero este término es raramente utilizado, debido a la practicidad del término de menor extensión disco duro (o disco rígido).
COMPONENTES DE UN DISCO DURO Conectado a:
IDE o ATA a través de cable o conector IDE o ATA
SCSI a través de SCSI
USB a través de Puerto USB

martes, 16 de junio de 2009

CLASIFICASION DE LA COMPUTADORA




I N T R O D U C C I Ó N
Como ya se sabe una computadora es, dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada.
En el presente trabajo se mencionara a detalle la clasificación de la computadora de acuerdo a su capacidad, lo que podemos adelantar es que existen cuatro tipos de computadora que son:
- Macrocomputadora
- Supercomputadora
- Microcomputadora
- Minicomputadora
- Estaciones de trabajo
Clasificaciones de las Computadoras
Las computadoras de uso general vienen en muchos tamaños y capacidades. Estos términos existentes desde hace mucho tiempo, pero sus capacidades han cambiado. Los términos términos son: supercomputadora, macrocomputadora, minicomputadora, estación de trabajo y computadora personal.Veamos sólo algunas características de cada clasificación
1. Supercomputadora
- Constituyen el tipo más grande, rápido y costoso de estos aparatos.
- Usan su gran poder de procesamiento en la solución de problemas complejos.
- Su velocidad impresionante puede llegar a la de billones de intrucciones por segundo.
- Generan una gran cantidad de calor.
- Pueden costar de millones en adelante.
- Consume gran cantidad de energía eléctrica.
2. Macrocomputadora
- Son grandes, rápidas y bastante costosas.
- Permiten que cientos de terminales puedan compartir grandes bases centrales de datos.
- Terminal - computadora que no tiene su propio CPU o almacenamiento, es sólo un dispositivo de entrada/salida que se conecta a otra computadora localizada en otra parte.
- Las utilizan las empresas privadas u oficinas de gobierno para tener centralizado el almacenamiento, procesamiento y la administración de grandes cantidades de información.
3. Minicomputadoras
- Son algo mayores que las micros.
- Se utilizan para tareas específicas.
- Cuestan miles
- Conservan algunas características de “mainframe”.
- Maneja tareas de procesamiento para usuarios múltiples.
4. Estaciones de trabajo
- Está entre las mini y las macro.
- Es una computadora personal
- Las estaciones de trabajo tienen casi la misma capacidad que las microcomputadoras, pero generalmente es usada por una sóla persona.
5. Microcomputadora
- Vienen en todas formas y tamaños.
- Se encuentran en oficinas, salones de clase y hogares.
- Cuestan generalmente desde $1,000 en adelante.
Enseguida se dará una explicación de cada una de las anteriores para especifica sus orígenes, desarrollo futuro, algunos ejemplos y los usos de cada una de ellas.
S U P E R C O M P U T A D O R A
Es una computadora de gran capacidad, tremendamente rápida y de coste elevado, utilizada en cálculos complejos o tareas muy especiales. Normalmente se trata de una máquina capaz de distribuir el procesamiento de instrucciones y que puede utilizar instrucciones vectoriales. Las supercomputadoras se usan, por ejemplo, para hacer el enorme número de cálculos que se necesitan para dibujar y animar una nave espacial, o para crear un dinosaurio en movimiento para una película.
También se utilizan para hacer las previsiones meteorológicas, para construir modelos científicos a gran escala y en los cálculos de las prospecciones petrolíferas.

lunes, 15 de junio de 2009

informatica versus computacion



El objetivo de esta exposición es reflexionar acerca de la figura aparecida en el ámbito de la computación: el operador de PC. Si bien sobre este tema no hay una bibliografía específica que pueda servir de guía, lo cierto es que se encuentra dispersa en otra acumulativa que lo reza de distinta manera y en la que me voy a referir para diagramar su perfil.
Este tema se ha desarrollado desde la concepción del sujeto –un modelo de hombre cognoscente y participativo de un proceso integral mediatizado–, aunque aquí el planteo va a ser recortado sobre la base de su rol que se circunscribe por el medio aplicado (la computadora), para establecer una aproximación acerca de los conocimientos que todo usuario debe dominar para operar un entorno gráfico.
INFORMÁTICA VS. COMPUTACIÓN
En nuestra conversación diaria se han incorporado vocablos técnicos que se utilizan con cierta frecuencia: Internet, chateo, correo electrónico, memoria RAM, escaneo, impresiones digitales, etcétera. A su vez, está en boga utilizar computación e informática como sinónimos, a pesar de que algunos autores establezcan aspectos muy disímiles.
Silvina G. Caraballo, Rosa A. Cicala, Bibiana H. Díaz y Wilson R. Santurio consideran a la informática como el "tratamiento automático de la información", que se "encuentra ligada con la computadora, ya que su finalidad es el procesamiento de la información mediante el empleo de este instrumento. En esta combinación de tareas intervienen dos procesos importantes, los cuales caracterizan a todo sistema informático: el funcionamiento de la computadora y las técnicas de procesamiento de los datos… Un sistema informático se compone de recursos humanos, recursos físicos (hardware), recursos lógicos (software) y datos/información. Como en todo sistema, en Informática los componentes están relacionados entre sí y cada uno constituye un sistema en sí mismo." (2000:18)
Desde el campo de la filosofía, Newell Allen y Simon Herbert A. consideran a la computación como ciencia: "una disciplina empírica a la que hemos llamado "ciencia experimental", pero al igual que la astronomía, la economía y geología, algunas de sus formas únicas de observación y experiencias no se adaptan a un estereotipo limitado del método experimental. En relación, la construcción de la máquina plantea una pregunta a la naturaleza, cuya respuesta escuchamos observando operar la máquina (sujeto) y analizándola con todos los medios analíticos y de medición disponibles. Cada programa nuevo constituye un experimento que plantea una pregunta a la naturaleza y su comportamiento ofrece pistas para obtener una respuesta. Ni las máquinas ni los programas son cajas negras; solamente son artefactos que han sido diseñados, tanto en su hardware como en su software, y que podemos abrir para examinar su interior. Podemos relacionar su estructura con su comportamiento y extraer muchas lecciones de un solo experimento. No necesitamos hacer 100 copias de, digamos, la prueba de un teorema, para demostrar estadísticamente que no se ha superado la explosión combinatoria de búsqueda en la manera esperada. La inspección del programa a la luzde unas cuantas veces que se corra nos revela su importancia y nos permite proseguir con el siguiente." De esta manera, la "ciencia de la computación es el estudio de los fenómenos que rodean a las computadoras". (Boden, 1994:122/23)
Desde un punto de vista ecológico, aplicado a los medios de información/comunicación en esta sociedad informatizada, surge como contrapartida la de efectuar un análisis integral de los objetos mediáticos con relación al sujeto. Angel Benito establece que es el estudio obligado de "extender estas preocupaciones y criterios ecologistas al estudio del uso y abuso de los medios de comunicación, a su reparto injusto en tantos países de la Tierra, a su manipulación por parte del poder económico y el poder político, a su sintonía o falta de sintonía con los problemas y necesidades individuales y sociales…" (Benito, 1989:15) Dentro de esta dialéctica, es preciso hallar una "relación de interdependencia del Sujeto Técnico y el Sujeto Social… El Sujeto técnico, ya sea un profesional aislado, ya un ente informativo, realiza su papel en el proceso con unos Propósitos y con unos Fines Profesionales. Por su parte, el Sujeto Social, al no ser un mero espectador o receptor pasivo del proceso, no sólo lo "contesta" o asume, sino que los "contesta" o asume porque también tiene unos Propósitos en el proceso informativo: si no los tuviera no adoptaría una posición activa y la información no podría concebirse como una tensión dialéctica". (Benito, 1989:167/68)
A partir de esta hipótesis, queda claro que tanto los procesos analíticos y experimentales son estructuraciones análogas, por la cual, un sujeto (Técnico/Social) participa activamente. Surge entonces una diferenciación entre "informática" y "computación", y ambos términos no pueden ser utilizados como sinónimos.
El aporte de la "ecología" engloba un enfoque técnico y humanista, estableciendo que la "informática" es un "sistema procesador de datos" que "automatiza la información", mientras que la "computación" es un "sistema operacional" que va más allá del "ingreso de datos". Es decir, una atomización de las funciones en dos aspectos: uno oculto que procesa una información codificada y otro real que se percibe mientras se operan comandos y manipulan objetos desde un "ámbito gráfico". Es en este último donde se focaliza su atención a fin de determinar los alcances del sistema para el manejo operacional, y donde el sujeto (Técnico/Social) organiza activamente su tarea cotidiana sobre la base de esquemas, gráficos y estructuras/estructurantes de rutas de acceso y aplicación de fórmulas que completan el proceso interactivo.
Es dable destacar que la interface gráfica, en la década del ´80, protagonizada por la computadora personal, produjo una verdadera revolución en el sistema operativo: "… las primeras computadoras personales admitían órdenes del usuario expresadas en "códigos" específicos. El DOS por ejemplo, muy popular hasta hace relativamente poco tiempo, consistía en un "idioma" que el usuario debía aprender para comunicarse con su procesador. Este tipo de lenguajes es indispensable aún hoy en actividades altamente tecnificadas. Pero los usuarios que no están directamente relacionados con este tipo de actividades no están obligados a aprender extraños idiomas informáticos. Uno de los cambios que hicieron que la computadora fuera usada masivamente… fue la incorporación de sistemas operativos con "interface gráfica". Esta innovación consistió en que, en lugar de que el usuario aprendiera el idioma de la computadora, se diseñara un sistema operativo que pueda ser comprendido por cualquier usuario. El monitor, en lugar de una superficie negra o ámbar sobre la que aparecían líneas de código, ahora tenía la apariencia de un "escritorio" con carpetas, papelera archivador, etcétera. En vez de líneas de código difíciles de aprender, las acciones que se deseaban hacer se las comunicaba al procesador por medio de menúes desplegables que contenían órdenes claras o con movimientos del mouse o ratón." (Maldonado, 2001:84)
La informática y la computación, a su vez, pueden complementarse. Muchas veces se recurre a un conocimiento informático a la hora de utilizar un lenguaje de programación, o bien, al definir los periféricos de un equipo, delimitando en un contexto sus funciones.
La computación también se interna en un mundo virtual de la imagen y sonido transformándose en un sistema comunicacional: Internet, que posibilita a cada usuario navegar por el ciberespacio, tener un e-mail personal y crear su propia página Web. "Nacen así las redes de comunicaciones y las posibilidades de una amplificación de la capacidad expresiva humana sin precedentes en la historia. Emerge un metahombre, que a partir de un click de mouse y de un discado de módem suprime todas las distancias y las diferencias, colapsa todos los tiempos y hace suyo el sueño faústico de una comunicación instantánea e ilimitada…" (Piscitelli, 1998:28)
La computadora, tal como se presenta en la actualidad –complejizada en instrumentos anexos–, pasó a formar parte de una herramienta indispensable en comercios, industrias, centros de investigación, laboratorios, etc. Ante esta perspectiva, requiere que tanto jóvenes y adultos sepan operar un sistema de base.

martes, 9 de junio de 2009

INTERNET (UN POCO DE HISTORIA)


el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.
1969. La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
1972. Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.
1983. El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.
1986. La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.
1989. Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.
En el
CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.
2006. El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones

INTERNET


Internet es un conjunto descentralizado de redes de comunicación interconectadas, que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.
Uno de los servicios que más éxito ha tenido en Internet ha sido la
World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.
Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de
correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otras máquinas (SSH y Telnet) o los juegos en línea.
El
género de la palabra Internet es ambiguo, según el Diccionario de la Real Academia Española.[3]

viernes, 5 de junio de 2009

TODO LO QUE QUERIAS SABER DE INTERNET







Todo lo que querías saber de Internet
La utilizamos a diario, ya seanavegando por páginas web o enviando y recibiendo correos electrónicos, pero lo cierto es que no la conocemos demasiado. Hasta ahora.
Que Internet es una red de ordenadores, seguro que lo sabías, pero quizás no sepas cómo está estructurada, qué instituciones la regulan y mantienen, y cómo se paga para mantener toda la infraestructura que permite que un paquete de información enviado desde sevilla llegue a Tokyo de manera casi instantánea.
Reunimos las principales dudas sobre la red de redes en cinco preguntas básicas que esperamos que os resulten interesantes.
¿Quién la inventó?Internet nació como una red de ordenadores creada por DARPA, una organización dependiente del ministerio de defensa de los EEUU, y fue un ingeniero del Massachussets Institute of Technology (MIT), Lawrence G. Roberts, el que ya en 1966 llevó a esta organización la idea de crear una red llamada "ARPANET".
La red fue creciendo hasta que en 1972 se decidió que, para ampliar la red y hacerla accesible a más personas, se debía crear un protocolo nuevo de comunicación. Así, DARPA contrató a la universidad de Stanford (Cerf), BBN (Ray Tomlinson) y UCL (Peter Kirstein), para crear el TCP/IP, que fue implantado en la red en 1983.
Hacia 1985, Internet ya era conocida y utilizada por las universidades y desarrolladores, pero fue a partir de esta fecha cuando se comenzó a expandir y a convertirse en un fenómeno eminentemente privado, con nuevas redes que se iban interconectando para ofrecer servicios (principalmente de mensajería electrónica), y desplazando a los nodos de comunicación financiados por el estado (principalmente universidades) para convertirse en la megaestructura que conocemos hoy.
Así, podemos decir que fue la comunidad científica de los EEUU la que "inventó" Internet, con el gobierno de los EEUU poniendo los fondos necesarios iniciales para su creación y expansión hasta que el sector privado le tomó el relevo.
Un asunto al margen es la "polémica" o el chiste sobre Al Gore, ya que en muchas páginas se le puede ver haciendo la afirmación "Yo inventé Internet". Lo cierto es que cuando él estuvo en la administración pública de los EEUU, el gobierno puso especial interés en que la red creciese, pero su desafortunada frase durante una entrevista "Durante mi servicio en el congreso de los EEUU, tomé la iniciativa creando Internet..." hizo que se convirtiese en la mofa de los internautas.
¿Cómo está organizada?Si tenemos una red local de ordenadores en nuestra casa, ya tenemos la pieza fundamental sobre la que se fundamenta Internet. Internet es, tal como dice la popular expresión "la red de redes", ya que se compone de redes a diferentes niveles jerárquicos que se comunican entre ellas para formar una estructura descentralizada que permite a la información tomar un gran número de rutas para llegar a su destino.
Cuando nosotros conectamos un ordenador a la red, lo hacemos mediante una suscripción a un servicio de pago, principalmente conexiones de banda ancha (ADSL, cable, HSDPA, etc.). Desde ese momento, nuestro ordenador queda identificado como integrante de la red, y puede acceder y ser accedido desde cualquier otro ordenador conectado a ella.
Para ello, nuestro ordenador se conecta a otro ordenador, perteneciente a nuestro proveedor de acceso a Internet, el cual, a su vez, se conecta a otros ordenadores de las compañías que disponen de la infraestructura (cableado y ordenadores que centralizan todo el tráfico de una zona). Estos ordenadores se comunican con sus coetáneos en otras grandes compañías de todo el mundo, formando así una red global.
Así, podemos ver que al igual que nosotros tenemos una pequeña red montada en casa, Internet es una red de alto nivel de la cual "cuelgan" redes de menores dimensiones, las cuales a su vez ofrecen acceso a otras subredes.
¿Quién la controla?Siendo una estructura descentralizada dependiente de una gran cantidad de compañías que ofrecen los servicios de interconexión entre nodos principales, no existe una única autoridad que decida qué es lo que se tiene que hacer con la Red.
En cambio, existen un número de organizaciones que velan por el buen funcionamiento de la red, su modernización, y la asignación de nombres de dominio (que veremos más adelante). Las más importantes son:
ISOC: La "Internet Society" es una sociedad sin ánimo de lucro con 7000 miembros de más de 150 países, y trata temas sobre el crecimiento y la mejora de Internet.IETF: La "Internet Engineering Task Force" es una organización internacional abierta que reúne a expertos en redes, operadores, empresas de comercialización de servicios, etc., que quieran aportar sus conocimientos para la mejora y buen funcionamiento de la red.ICANN: La "Internet Corporation for Assigned Names and Numbers" se ocupa de la gestión y asignación de los elementos técnicos del servicio de nombres de dominio, que es el sistema por el cual podemos traducir las direcciones numéricas IP en nombres "Uniform Resource Locator", tipo "www.terra.es".IAB: La "Internet Architecture Board" es la encargada de estudiar e introducir los estándares tecnológicos que se utilizan para acceder y utilizar Internet.CORE: El "Council of Registrars" es la unión de registradores de dominios a nivel internacional. Sin ánimo de lucro, se rige por la ley suiza.InterNic: Agencia que controla la actividad del "Council of Registrars" y resuelve disputas sobre la propiedad de los nombrs de dominio.
¿Quién paga Internet?Nosotros. Como ya hemos dicho, Internet es eminentemente privada, con empresas de alto nivel que cobran por sus servicios de inteconexión a empresas más pequeñas, que a su vez cobran a otras que nos ofrecen servicios a nosotros, como usuarios finales. Así, somos los usuarios finales los que estamos haciendo que Internet sea rentable.
Pero no pagamos Internet únicamente con las cuotas que le pagamos a nuestro proveedor de acceso a Internet, sino que también lo hacemos con nuestros impuestos, ya que las conexiones de las Universidades y centros de investigación públicos están sufragadas por las contribuciones de los ciudadanos.
Así que, queramos o no, todos pagamos para que Internet funcione.
¿Cómo viaja la información?Desde que deja nuestro ordenador hasta que llega a su destino, los paquetes de información siguen rutas que vienen determinadas por una serie de datos que son "impresos" en el paquete, tal como se pone la dirección de envío y remitente en un paquete postal.
Así, gracias a las direcciones IP, que identifican a cada ordenador que está conectado a Internet, el paquete de información va viajando por una serie de "enrutadores" que van subiendo por la jerarquía de redes hasta llegar al nodo que conecta con el nodo de destino, y a partir de ahí baja otra vez por la jerarquía del segundo nodo hasta llegar a la IP del ordenador destino (que puede ser un ordenador particular, un servidor de correo de un proveedor de acceso a Internet, etc.).
Pero además contamos con el Sistema de Nombres de Dominio (DNS), que nos permiten trabajar con direcciones URL, mucho más fáciles de recordar. Estos ordenadores (Servidores de nombres) tienen una base de datos que les permiten traducir direcciones tipo "www.terra.es" en una dirección numérica IP. Si el servidor de nombres que tenemos configurado no tiene el nombre de dominio en su base de datos, puede "preguntar" a otros servidores, para así encontrar el destino correcto.
Una de las ventajas de Internet es que cada paquete de información que enviamos no tiene por qué seguir la misma ruta, y dependiendo de la densidad de una línea o de la disponibilidad de uno u otro nodo, diferentes fracciones de un mismo envío pueden viajar por partes del mundo diferentes para llegar al mismo destino y recomponerse.
Así, vemos que el secreto del buen funcionamiento de Internet es su capacidad de enrutar dinámicamente la información y poder acceder a recursos de todo el sistema para poder llevar la información a destino de manera rápida y sin errores.

DATOS PERSONALES

Mi foto
varon 61años,mi email es:seguro4@gmail.com