jueves, 30 de abril de 2015

ANTIVIRUS

GENERACION DE LA COMPUTADORA

lunes, 20 de abril de 2015

jueves, 9 de abril de 2015

Clasificación de las computadoras


Para tener una referencia más acertada de la clasificación de las computadoras de acuerdo a su capacidad de proceso, se considera principalmente el tamaño en funcioón del espacio que ocupa y la infraestructura que requieren, tambien consideran diferentes tecnologías de fabricaciòn de sus procesadores, velocidades y capacidades de procesamiento, sin perder de vista las aplicaciones que en ellas corren, sin embargo trataremos de hacer una clasificación general:
De propósito general: cuando están dedicados a resolver cualquier tipo de aplicación dependiendo de los programas o aplicaciones que se utilice.
De propósito especial: cuando únicamente pueden resolver un tipo concreto y particular de problemas como la computadora de un auto, en elevador o un controlador de temperatura.

Clasificación de dependiendo del tamaño físico, desempeño y área de aplicación:
Computadoras portatiles: Son equipos de cómputo pequeños, que pueden ser transportados con facilidad y no requieren instalaciones especiales (ej, Laptops, Palms, dispositivos handheld).
Computadoras personales : Computadora para un usuario, de escritorio, con procesadores de una pastilla o circuito se usa en oficias, educación y aplicaciones doméstica.
Minicomputadoras: En esencia es una computadora con grandes capacidades, basadas en un procesador de 32 o 64 bits y equipadas con muchos gigabytes de memoria. Su aplicación son los sistemas departamentales de tiempo compartido y servidores de red de archivos.
Mainframes: Tienen capacidades de procesamiento muy sofisticadas, de igual forma en sus aplicaciones. Su uso se basa en el procesamiento de procesos en lote, en tiempo real y algunos otros de aplicacione específica, dentro de sus aplicaciones estan por ejemplo el procesamiento de transacciones, reservaciones aéreas, en donde se requiere el uso de grandes bases de datos y tiempos de respuesta muy rápidos.
Supercomputadoras: diseñadas para maximizar el número de flops, no se considera supercomputadoras aquellas cuyo desempeño sea menor a un gigaflop/seg. Estas computadoras tienen arquitecturas en paralelo y son eficientes sólo para un rango reducido de problemas pero de consideraciones muy importantes.

SUPERCOMPUTADORAS.






Es el tipo de computadoras más potentes y más rápidas que existen, están diseñadas para procesar grandes cantidades de información en poco tiempo y son dedicadas a una tarea específica puede ser capaz de procesar a asombrosas velocidades.

Estos sistemas de cómputo se caracterizan por su gran tamaño y enorme velocidad de procesamiento, utilizados en aplicaciones científicas y complejas, su velocidad del cálculo es de primordial importancia, son las extremadamente caras, cuentan con un control de temperatura especial para disipar el calor que algunos componentes alcanzan a tener.

Algunas aplicaciones de importancia son la búsqueda y estudio de la energía y armas nucleares. búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos, estudio y predicción de tornados, estudio y predicción del clima de cualquier parte del mundo, elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo etc.; por sus características y complejidad existe pocas en el mundo.


Las nuevas supercomputadoras serán capaces de procesar 460 billones de cálculos por segundo, más de una vez y media el poder de procesamiento combinado de las 500 computadoras más grandes que existen actualmente en el mundo. Uno de los ordenadores, ASCI Purple, es ocho veces más rápido que el utilizado en estos momentos por los laboratorios norteamericanos de Livermore para la simulación de ensayos nucleares, ASCI Blue. La máquina contará con 12.000 chips del tipo Power 5, que suponen 4.000 más que los usados en la anterior generación Power 4.

Una supercomputadora es un tipo de computadora muy potente y rápida, diseñada para procesar enormes cantidades de información en poco tiempo y dedicada a una tarea específica. Por lo mismo son las más caras, su precio alcanza los 30 millones de dólares o más; y cuentan con un control de temperatura especial, esto para disipar el calor que algunos componentes alcanzan a tener.

Las supercomputadoras normalmente son aquellas que son cientos de veces más rápidas que cualquier computadora de escritorio. Las supercomputadoras normalmente están en cuartos muy fríos y se deben enfriar con líquidos especiales para que la resistencia eléctrica sea mínima y garantice la máxima velocidad. El software que se corre en las supercomputadoras normalmente es un software especializado, como la predicción del clima, la dinámica molecular. De modo que la principal característica de las supercomputadoras es su velocidad de proceso, y no el número de procesos que puedan ejecutar al mismo tiempo.

La IBM Roadrunner.

Roadrunner es una supercomputadora del Laboratorio Nacional Los Álamos en Nuevo México. Ha sido diseñado conjuntamente por IBM y el personal del laboratorio y es actualmente la supercomputadora más rápida. Diseñado para alcanzar picos de 1,7 petaflops, alcanzó 1,026 petaflops en junio de 2008. Es el primer sistema Linpack TOP500 en alcanzar un rendimiento sostenido de un 1 petaflops. Está equipado con más 12.000 procesadores tipo PowerXCell 8i mejorados, diseñados originalmente para la videoconsola Sony Playstation 3, colocados en paralelo y 6.912 procesadores Opteron de AMD, unidos mediante 92 km de fibra óptica en un sistema triblade con InfiniBand. En total ocupa aproximadamente 1.100 m2. El Roadrunner funciona bajo el sistema operativo Red Hat Enterprise Linux y el software de computación distribuida xCAT. Con un consumo estimado de tres megavatios, su coste fue de 133 millones de dólares. Fue instalado en un principio en el centro de IBM en Poughkeepsie, para después ser trasladado al Laboratorio Nacional Los Álamos en Nuevo México, donde se dedicará a actuar como patrón de seguridad del arsenal de armas nucleares de Estados Unidos, además de al estudio de problemas relacionados con el clima, la astronomía o la genómica.México cuenta con:


LA KAN BALAM.

Es un clúster de computadoras Hewlett-Packard, con capacidad de 7.113 teraflops, siendo la número uno en América Latina hasta que la superó Aitzaloa. Esta computadora está ubicada en la ciudad de México, en el campus principal de la UNAM, funcionando desde el 16 de enero de 2007. Su coste supera los 3 millones de dólares. Entre los objetivos de este equipo se encuentra un proyecto de enfrentar la fuga de cerebros que sufre el país, intentando repatriar a aquellos investigadores que se encuentren trabajando en el extranjero, por falta de infraestructura. Las principales ramas beneficiadas con esta computadora son astrofísica, física de partículas, química cuántica, geología e ingeniería sísmica. También será usada para estudios de clima y contaminación y estará a disposición de instituciones públicas y privadas. KanBalam cuenta con 1368 procesadores AMD Opteron de 2.6GHz y 3016 GB de memoria RAM, distribuidos en 337 nodos de cálculo, cada uno con 8 GB RAM y dos procesadores duales y en 5 nodos especializados, con 64GB RAM. Utiliza GNU/Linux como sistema operativo.


Dispone de un sistema de almacenamiento de 768 discos duros de 200 GB cada uno que proporcionan 160 TB de almacenamiento. Los nodos de procesamiento se comunican con el sistema de almacenamiento en una red de alta velocidad. Conecta 576 puertos con 2 switches infiniband, alcanzando 10 GBps. La computadora cuenta con cuatro nodos de servicio.

La Aitzaloa:



Aitzaloa es el nombre oficial del cluster, un arreglo de servidores de la Universidad Autónoma Metropolitana, Unidad Iztapalapa, que cuenta con 540 procesadores Quad Core, lo que significa que cuenta con 2,160 núcleos de procesamiento que muestran una capacidad de 18.48 Teraflops, además de 32GB en su memoria RAM y 9TB de almacenamiento local.

El objetivo de esta supercomputadora es el desarrollo de aplicaciones científicas desarrolladas en disciplinas como la física, química, matemáticas y algunas ingenierías, principalmente para simulaciones de procesos que de otra forma sería muy costoso llevarlos a cabo en el laboratorio.

Aitzaloa viene de dos palabras del vocablo maya: "aitia", que significa lugar donde se llevan a cabo varias tareas; y "zalohua", lugar donde se aprende.


MACROCOMPUTADORAS o MAINFRAMES

Las macrocomputadoras también conocidas como mainframes son de gran tamaño, y su poder de procesamiento es extremadamente rápido, son utilizadas en grandes aplicaciones comerciales, científicas, militares, o en aplicaciones donde se requiere manejar masivas cantidades de datos y manejo de complicados procesos, además su costo es muy elevado, requiere de instalaciones especiales como aire acondicionado, piso falso, personal altamente capacitado, son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cables de los dispositivos periféricos, y su temperatura tiene que estar controlada, soporta grandes bases de datos por lo que dentro de su estructura cuenta con dispositivos para el almacenamiento de grandes volúmenes de información.

El significado del término mainframe dentro de la computación, ha cambiado varias veces. Al principio, mainframe era un término con el que se designaba a las computadoras que se alojaban en cuartos enormes, luego se utilizó para distinguir las máquinas que compartían los recursos con muchas computadoras de menos poder de cómputo. Ahora, el término se refiere usualmente a las computadoras compatibles con el sistema IBM 360. Otras computadoras con las mismas capacidades se suelen llamar servidores. En general, nosotros entenderemos como mainframe, una computadora que es capaz de compartir los recursos con muchas otras computadoras de menor capacidad. Los mainframes se utilizan en universidades, bancos, etc. Una computadora mainframe acepta entradas de otras terminales, u otros mainframes. Una terminal es una computadora con muy poco poder de cómputo que requiere de los servicios que presta un mainframe.


MINICOMPUTADORAS.

Es una versión más pequeña conocida como de medio rango, orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y lo que ayudo a reducir los costos, en tamaño y poder de procesamiento, se acerca a los mainframes y las estaciones de trabajo, es una computadora que maneja el concepto de multiproceso, capaz de soportar de 10 hasta 200 usuarios simultáneamente, en la actualidad se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario. Las estaciones de trabajo o Workstations (En redes, la palabra "workstation" o "estación de trabajo" se utiliza para referirse a cualquier computadora que está conectada a una red de área local), se encuentran entre las mini computadoras y las macrocomputadoras se utilizan para aplicaciones que requieren poder de procesamiento moderado y relativas capacidades de gráficos de alta calidad. Sus principales aplicaciones abarcan áreas de ingeniería, universidades, laboratorios de investigación entre otros.


MICROCOMPUTADORAS.



En 1960 surgió la minicomputadora, una versión más pequeña de la macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un mainframe, y esto ayudo a reducir el precio y costos de mantenimiento. En general, una minicomputadora, es un sistema multiproceso capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario.

Se basan en microprocesadores con base a circuitos de alta densidad son extremadamente pequeñas y baratas, se componen de un microprocesador, elementos de almacenamiento y de entrada / salida asociados, se convierte en una microcomputadora al agregársele una unidad de memoria mas unos circuitos de entrada / salida (y/o) llamados puertos, la unidad de memoria contiene dos tipos de memoria fabricadas con material semiconductor RAM y ROM.


La filosofía y el diseño de estos equipos se orientan mas hacia el usuario final, por su capacidad de computo tienen un inmenso potencial para varias aplicaciones, el costo es relativamente bajo, es muy confiable en la empresa pues tiene un regular capacidad para ejecutar trabajos o procesos, adicionalmente . se utilizan para aplicaciones caseras y de oficina normalmente para una sola persona por eso se les llama personales.

Las Micro Computadoras y Computadoras Portatiles.












Tuvieron su origen con la creación de los microprocesadores. Un microprocesador es una computadora en un chip. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.

El término PC se deriva de que para el año de 1981, IBM sacó a la venta su modelo IBM PC, la cual se convirtió en un tipo de computadora ideal para uso personal, de ahí que el término PC se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados PC y compatibles, usando procesadores del mismo tipo que las IBM, pero a un costo menor y pudiendo ejecutar el mismo tipo de programas.

Existen otros tipos de microcomputadoras, como la Macintosh, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también PC´s, por ser de uso personal. En la actualidad existen variados diseños de PC´s: computadoras personales, con el gabinete tipo minitorre, con el gabinete horizontal, computadoras personales portátiles Laptop o Notebook.

Algunas unidades de medida para referenciar la capacidad de procesamiento de las computadoras son utilizados por diferentes fabricantes de computadoras y no siempre utilizan la misma unidad pare medir el rendimiento, por ejemplo, la unidad, Millones de instrucciones por segundo(MIPS) es un estándar, ITR significa Internal Trughput Ratio, SPEC int92 marks utilizado para medir rendimiento en equipos Sun, el rendimiento de las supercomputadoras es calculado por herramientas facilitadas por los fabricantes.



Parte De Una PC

Parte De Una PC




Introducción



Bienvenido a este humilde sitio web en el cual encontraras una guía básica sobre una computadora. Nos hemos centrado en describir las distintas partes y explicando para que sirve cada una de ellas. Suponemos que eres un principiante en eso de la “informática” por ello intentaremos utilizar lenguaje lo mas claro y simple posible. Si encuentras cualquier errata o explicación confusa, por ejemplo sobre el funcionamiento de cualquier parte de la computadora, os ruego que nos dejes un comentario o correo electrónico, para resolver la duda para todos.


A continuación encontraras un pequeño menú que te llevara directamente a la categoría deseada. Las partes o dispositivos de cualquier computadora a veces se pueden clasificar en distintas categorías.
Partes internas
Periféricos o dispositivos auxiliares
Dispositivos multimedia
Partes internas de una computadora, lo que forma la CPU


A continuación te enumeramos todas las partes de la “caja” del ordenador, que se suele llamarse CPU (En otros países puede significar procesador o Central Unit Processor). Digamos es la parte mas importante de cualquier computadora, ahí es donde se guardan los datos, donde se realizan los cálculos y es donde se conecta todo lo demás.
Microprocesador(también llamado CPU)





Microprocesador


El procesador junto a la motherboard y la memoria RAM es una de las piezas imprescindibles para una computadora. Generalmente es un pequeño cuadrado de silicio con muchos pines recubiertos de oro que recibe instrucciones, las procesa y manda ordenes. Cada procesador dispone de unas instrucciones predefinidas como suma, resta, multiplicación, desplazamiento… etc. Dispone de una pequeña memoria cache, que tiene muy poca capacidad pero es ultra rápida. Quizás se podría comparar un procesador con una fabrica, recibe materia prima y devuelve producto terminado. Aprende mas sobre el procesador aquí.
Motherboard o placa madre





Motherboard


Este componente, a veces menospreciado, es tan importante como el procesador. La motherboard sincroniza el funcionamiento de TODOS las partes de una computadora, el 99% de los dispositivos están conectados ahí. Si comparamos el procesador con una fabrica, la placa madre podríamos comparar con la red de carreteras que la rodean. Es un componente que se fabrica pensando en determinada familia de procesadores y con unos estándares en mente. De hecho lo primero que debemos elegir al montar un ordenador es la motherboard y después ir mirando si soporta determinados dispositivos o estándares. Por ejemplo cuantas tarjetas de vídeo podemos conectar, si tiene 2 o 1 tarjetas de red, si soporta memoria RAM ECC (memoria especial para servidores)…
Memoria RAM





La memoria RAM es una memoria Intermedia que guarda los datos e instrucciones intermedias. Guarda por ejemplo un documento Word mientras lo editamos en el Office. Es la segunda memoria mas rápida de la computadora, después de la memoria cache. Todos los datos que se guardan ahí se borran cuando apagamos el equipo a diferencia por ejemplo del disco duro. En los ultimos años esta memoria ha pasado de tener 256Kb a 16Gb. En los servidores incluso puedes encontrar 64GB o 128GB de memoria RAM DDR3 ECC. Aprende mas sobre la memoria RAM
Disco Duro





El disco duro es otro de los componentes esenciales de nuestro sistema informático. Generalmente es una parte interna de cualquier computadora, aunque en los últimos años se ha popularizado el formato externo, en el fondo la tecnología es la misma. El “Hard Drive” por prestaciones es mucho mas lento que la memoria RAM, sin embargo tiene mucha mas capacidad. Actualmente en el año 2015 puedes encontrar fácilmente unidades de 4Tb-6Tb, lo mas común y económico es tener 1-2Tb. Ademas es el componente que cambia radicalmente de tecnología. La tecnología magnética poco a poco da paso a la “solida” o “química” de los discos SSD o Solid State Drive. Descubre mas sobre los discos duros
Lectores ópticos





Los lectores ópticos eran muy populares en el pasado. Básicamente son los que leen todos estos discos DVD, CD o BluRay. Ahora mismo con Internet muy desarrollado en muchos países esta casi en desuso el lector de discos. Cualquier información ahora puedes descargar de Internet o te la puedes llevar en una memoria USB. Aprende todo sobrela lectora de CDs aquí.
1.7. Tarjeta de Vídeo





La tarjeta de vídeo es la parte de nuestro ordenador que manda la señal de vídeo hacia nuestro monitor o televisor. Por si sola prácticamente es un pequeño ordenador ya que en la placa tiene un procesador, memoria RAM, BIOS, entradas de alimentación… etc. Son imprescindibles para la gente que busca sobre todo jugar o editar vídeo o 3D. Si quieres saber mas, aquí tenemos escrito sobre las tarjetas de vídeo.
Periféricos o dispositivos auxiliares de una computadora.


Seguramente se nos viene a la cabeza el teclado. Sin embargo hay unos cuantos dispositivos de entrada a describir. Por lo general aquí clasificaremos dispositivos que sirven para mandar ordenes a nuestra CPU, que serán procesados y almacenados o mostrados mediante unidades de salida de información. Por ejemplo el ratón, tabletas gráficas, lectores de códigos de barras, el track pad en un portátil o lector de huellas. Seguramente se me olvida alguno, pero en Internet todo se puede modificar, así que lo iremos actualizando según expliquemos las cosas.
Mouse





El mouse o el ratón es una parte esencial de cualquier computadora. Actualmente esta en proceso de una gran transformación tecnológica y quizás es uno de los componentes que desaparecerá en el futuro. Las pantallas táctiles de calidad vistas por primera vez en iPhone (Realmente han sido inventadas hace tiempo, pero nunca con tanta calidad) han supuesto una revolución en el manejo no solo de los ordenadores si no de móviles, tablet PC, navegadores GPS, relojes, Mp3, eBook… etc. Mientras tanto podemos disfrutar de evoluciones de ratón tan curiosas como el Magic Mouse de Apple.
Unidades de almacenamiento externo de una computadora.


Actualmente existen muchas formas de almacenar la información, sin embargo podemos subdividir esta parte en dos. Almacenamiento interno y dispositivos de almacenamiento externo. La primera categoría prácticamente es solo los discos duros, mientras que en la segunda existe mucha mas variedad… aquí por ejemplo podemos encontrar la memoria USB, discos duros portátiles, tarjetas de memoria, DVD, BlueRay, disquete… etc.
Dispositivos multimedia.


Dentro de los dispositivos multimedia, como su nombre indica, podemos clasificar múltiples o infinitos dispositivos. Nos centraremos en los dispositivos mas comunes. Como por ejemplo la impresora, escáner, altavoces, cascos o cámara de vídeo. Realmente estos componentes se podrían clasificar como dispositivos de E/S (Entrada/Salida) de información. Un escáner sería un dispositivo de entrada mientras que la impresora seria el de salida.


Recordad también que no hay una verdad verdadera en la informática, de hecho aunque se llame ingeniería a veces aun le faltan unos cuantos años para ser como tal (desgraciadamente). Para mi no es una ciencia del todo exacta como podría ser matemática o ingeniería de caminos. Ademas en el fondo es realmente compleja y ningún ser humano puede ser experto en todas las áreas. Ahora mismo de hecho poco a poco la informática buscando su camino se subdivide poco a poco en otras ramas… como por ejemplo Ingeniería de Sistemas, Ingeniería de Software… etc. Sospecho que dentro de unas cuantas décadas habrá una decena de carreras relacionadas con la informática.informática.

HTML



HTML




HTML, siglas de HyperText Markup Language («lenguaje de marcas de hipertexto»), hace referencia al lenguaje de marcado para la elaboración de páginas web. Es un estándar que sirve de referencia para la elaboración de páginas web en sus diferentes versiones, define una estructura básica y un código (denominado código HTML) para la definición de contenido de una página web, como texto, imágenes, videos, entre otros. Es un estándar a cargo de la W3C, organización dedicada a la estandarización de casi todas las tecnologías ligadas a la web, sobre todo en lo referente a su escritura e interpretación.

El lenguaje HTML basa su filosofía de desarrollo en la referenciación. Para añadir un elemento externo a la página (imagen, vídeo, script, entre otros.), este no se incrusta directamente en el código de la página, sino que se hace una referencia a la ubicación de dicho elemento mediante texto. De este modo, la página web contiene sólo texto mientras que recae en el navegador web (interpretador del código) la tarea de unir todos los elementos y visualizar la página final. Al ser un estándar, HTML busca ser un lenguaje que permita que cualquier página web escrita en una determinada versión, pueda ser interpretada de la misma forma (estándar) por cualquier navegador web actualizado.
Historia de HTML

Primeras especificaciones


Tim Berners-Lee (TBL) en 1991 describe 22 elementos que incluyen el diseño inicial y relativamente simple de HTML. Trece de estos elementos todavía existen en HTML 4.

Berners-Lee consideraba el HTML una ampliación de SGML, pero no fue formalmente reconocida como tal hasta la publicación a mediados de 1993, por la IETF (en español: Grupo de Trabajo de Ingeniería de Internet), de una primera proposición para una especificación del HTML: el borrador del Hypertext Markup Languagede Berners-Lee y Dan Connolly, que incluía una Definición de Tipo de Documento SGML para definir la gramática. El borrador expiró a los seis meses, pero fue notable por su reconocimiento de la etiqueta propia del navegador Mosaic usada para insertar imágenes sin cambio de línea, que reflejaba la filosofía del IETF de basar estándares en prototipos con éxito.  De la misma manera, el borrador competidor de Dave Raggett HTML+ (Hypertext Markup Format) (Formato de Marcaje de Hipertexto), de finales de 1993, sugería estandarizar características ya implementadas, como las tablas.


Marcado HTML


El HTML se escribe en forma de «etiquetas», rodeadas por corchetes angulares (<,>). El HTML también puede describir, hasta un cierto punto, la apariencia de un documento, y puede incluir o hacer referencia a un tipo de programa llamado script, el cual puede afectar el comportamiento de navegadores web y otros procesadores de HTML.

HTML también sirve para referirse al contenido del tipo de MIME text/html o todavía más ampliamente como un término genérico para el HTML, ya sea en forma descendida del XML (como XHTML 1.0 y posteriores) o en forma descendida directamente de SGML (como HTML 4.01 y anteriores).

HTML consta de varios componentes vitales, entre ellos los elementos y sus atributos, tipos de data y la declaración de tipo de documento.

Hipertexto

Hipertexto





Es una herramienta de software con estructura secuencial que permite crear, agregar, enlazar y compartir información de diversas fuentes por medio de enlaces asociativos.


La forma más habitual de hipertexto en informática es la de hipervínculos o referencias cruzadas automáticas que van a otros documentos (lexías). Si el usuario selecciona un hipervínculo, el programa muestra el documento enlazado. Otra forma de hipertexto es el stretchtext que consiste en dos indicadores o aceleradores y una pantalla. El primer indicador permite que lo escrito pueda moverse de arriba hacia abajo en la pantalla.


Es importante mencionar que el hipertexto no está limitado a datos textuales, podemos encontrar dibujos del elemento especificado o especializado, sonido o vídeo referido al tema. El programa que se usa para leer los documentos de hipertexto se llama navegador, browser, visualizador o cliente, y cuando seguimos un enlace decimos que estamos navegando por la web. El hipertexto es una de las formas de la hipermedia, enfocada en diseñar, escribir y redactar texto en una media


Historia

El concepto de hipertexto fue creado por Vannevar Bush, un estadounidense que con la invención de Memex, un dispositivo que sirve como base de datos y que posteriormente da la posibilidad de interactuar con los usuarios, permitió mecanizar y conectar la información con el fin de aumentar el desarrollo en aquella época. Toda esta explicación aparece recogida en el artículo As We May Think,1 publicado en el número de julio de 1945 de la revista The Atlantic Monthly, de Boston.


Ted Nelson, en 1965, fue el primero en acuñar la palabra “hypertext”, su propuesta es Xanadu, un sistema que permite que un mismo documento aparezca en múltiples contextos sin tener que haber sido duplicado.


El primer sistema de hipertexto llevado a cabo fue creado por Andries Van Dam y construido en la Universidad Brown en el año 1967. Se llamaba HES (Hypertext Editing System).


Douglas Engelbart en 1968 diseña el NLS (on line system), origen del sistema Augment, un medio basado en una interfaz que permite la manipulación directa con el uso del dispositivo “ratón”. Engelbart se asocia con Ted Nelson para desarrollar un programa de computador en el que se puede implementar las nociones dehipermedia e hipertexto. Aspen Movie Map fue el primer sistema hipermedia, llevado a cabo por Lippman en 1978, en el que se creó un mapa virtual de la ciudad de Aspen con el que el usuario podía moverse por las calles con el manejo de un joystick . El concepto de anclas vino de la mano de Intermedia, en la Universidad Brown. Intermedia fue un sistema multiusuario que daba la facilidad de recuperar información. Solo se podía utilizar en Apple bajo Unix. Debido a la falta de fondos desparece. Guide fue el primer sistema de hipertexto comercial, lo desarrolló Unix y más tarde llevado a la plataforma Apple Macintosh. El verdadero punto de inflexión para el concepto de hipertexto ocurrió en 1987 con la introducción de HyperCard en las computadores de Apple. En ese mismo año se da una conferencia en la Universidad de North Caroline dedicada a la investigación hipertextual. En 1991 se lleva a cabo el proyecto para llevar la tecnología hipermedial a la World Wide Web. Dos años más tarde, NCSA (National Center for Supercomputing Applications) crea Mosaic el navegador gráfico para la WWW.




Principales hitos en la historia y desarrollo


Año

Sistema

Autor

Hito


1945

Memex

Vannevar Bush

Dispositivo basado en microfichas.


1965

Xanadú

Ted Nelson

Primero en nombrar el término "hypertext".


1967

Hypertext Editing System

Andy van Dam

Primer sistema de hipertexto en funcionamiento.


1968

On Line System

Douglas Engelbart

Sistema de hipertexto con manipulación directa con utilización de ratón.


1978

Aspen Movie Map

Andrew Lippman

Primer sistema hipermedio en funcionamiento.


1985

Intermedia

Yankelovich et al

Se empieza a utilizar el concepto de ancla y red.


1986

GUIDE

OWL

Primer producto para autoría de hiperdocumentos.


1987

HyperCard

Apple

Producto entregado con cada Macintosh.


1987

Hypertext ´87

University of North Carolina

Primera conferencia en la que se trata la tecnología de hipertexto.


1991

World Wide Web

Tim Berners-Lee

Proyecto para llevar la tecnología hipermedial en Internet.


1993

Mosaic

NCSA

Navegador gráfico para el WWW.




.

Red social

Red social 





Es una estructura social compuesta por un conjunto de actores (tales como individuos u organizaciones) que están relacionados de acuerdo a algún criterio (relación profesional, amistad, parentesco, etc.). Normalmente se representan simbolizando los actores como nodos y las relaciones como líneas que los unen. El tipo de conexión representable en una red social es una relación diádica o lazo interpersonal.


Las investigaciones han mostrado que las redes sociales constituyen representaciones útiles en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en este caso de redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias. La red social también puede ser utilizada para medir el capital social (es decir, el valor que un individuo obtiene de los recursos accesibles a través de su red social).


El análisis de redes sociales estudia esta estructura social aplicando la teoría de grafos e identificando las entidades como "nodos" o "vértices" y las relaciones como "enlaces" o "aristas". La estructura del grafo resultante es a menudo una red compleja. Como se ha dicho, en su forma más simple una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes "socio céntricas" o "completas". Otra opción es identificar la red que envuelve a una persona (en los diferentes contextos sociales en los que interactúa); en este caso se habla de "red personal".


Las plataformas en Internet que facilitan la comunicación entre personas de una misma estructura social se denominan servicios de red social.
Historia del análisis de redes sociales.


Linton Freeman ha escrito la historia del progreso de las redes sociales y del análisis de redes sociales

Los precursores de las redes sociales, a finales del siglo XIX incluyen a Émile Durkheim y a Ferdinand Tönnies. Tönnies argumentó que los grupos sociales pueden existir bien como lazos sociales personales y directos que vinculan a los individuos con aquellos con quienes comparte valores y creencias (gemeinschaft), o bien como vínculos sociales formales e instrumentales (gesellschaft). Durkheim aportó una explicación no individualista al hecho social, argumentando que los fenómenos sociales surgen cuando los individuos que interactúan constituyen una realidad que ya no puede explicarse en términos de los atributos de los actores individuales. Hizo distinción entre una sociedad tradicional -con "solidaridad mecánica"- que prevalece si se minimizan las diferencias individuales; y una sociedad moderna -con "solidaridad orgánica"- que desarrolla cooperación entre individuos diferenciados con roles independientes.


Por su parte, Georg Simmel a comienzos del siglo XX, fue el primer estudioso que pensó directamente en términos de red social. Sus ensayos apuntan a la naturaleza del tamaño de la red sobre la interacción y a la probabilidad de interacción en redes ramificadas, de punto flojo, en lugar de en grupos.