lunes, 27 de octubre de 2008

jhmbhkgvuj

Cuando hacemos clic en un link para ingresar a una página se realizan los siguientes pasos.

· Se inicia un flujo de información dentro del computador, esta información viaja hacia su local propio de mensajeria, donde el IP lo empaqueta y pone en camino. Cada paquete debe tener una etiqueta con los datos más importantes
· Luego el paquete sale del computador, hacia LAN, donde se junta todo tipo de información, en esta carretera pueden ocurrir accidentes entre los paquetes.
· El Router local lee las direcciones y si es necesario pone los paquetes en otra red.
· Cuando los paquetes dejan el ruteador siguen su camino hacia la intranet o la red corporativa para llegar al SWITCH. Este suelta los paquetes y los envía hacia su camino.
· Cuando los paquetes llegan a su destino son recolectados por la interfaz de red, para ser enviados al Proxy. Este abre y busca la dirección Web, luego es enviada hacia la red. Hay algunas direcciones que no pueden ser abiertas por Proxy, dependiendo como este configurado, y son inmediatamente ejecutadas.
· Luego los paquetes son nuevamente enviados a la ruta LAN.
· El siguiente paso es el Firewall. Este tiene dos propósitos: prevenir improvisiones no deseadas y evita que información delicada de nuestra PC sea enviada a Internet.
· Una vez que pasa por el Firewall, un Router recoge los paquetes y los envía a un camino. Cuando los paquetes no son enviados el IP manda un paquete de reemplazo.
· Cuando los paquetes van por la ruta se pueden encontrar otros que son muy dañinos, como los “ping de la muerte”, que es más que nada un virus.
· Cerca del fin del viaje podemos encontrar otro Firewall, que según nuestras perspectivas puede ser un resguardo de seguridad o un terrible adversario y deja entrar solo los paquetes que cumplen con el criterio de selección. Este Firewall tiene abiertas las puertas 80 (para las direcciones de Internet) y 25 (para enviar y recibir correos), todo intento de entrada a otro puerto es cancelada.
· Los paquetes son filtrados por el Firewall, algunos pasan fácilmente por la “aduana”, mientras que otros que son sospechosos se destruyen.
· Luego son enviados a la interfaz para ser llevados al servidor Web.
· Uno por uno los paquetes son recibidos, abiertos y desempaca la información que contiene, nuestra solicitud, que es enviada hacia la arbitración del servidor Web, el paquete es reciclado.

miércoles, 1 de octubre de 2008

Definicioness!

Udp packet: UDP es un protocolo poco fiable cuando no se intenta realizar un seguimiento de los paquetes que están en una secuencia, el orden, o verificar que se recibieron. Los controles se hacen para ver si el paquete parece ser el mismo paquete transmitido por la evaluación de una suma de comprobación y comparación con los paquetes de control. Estos paquetes se redujo si el destino los cálculos de la suma de control difiere de los paquetes reclamados checksum

Icmp ping packet: ICMP se considera un protocolo fiable que no se intenta realizar un seguimiento de los paquetes que están en una secuencia, el orden, o verificar que se recibieron. (Overstrike COMIENZAN) Los controles se hacen para ver si el paquete parece ser el mismo paquete transmitido por la evaluación de una suma de comprobación y comparación con los paquetes de control
.Ping de la muerte Tipo de ataque enviado a un ordenadorque consiste en mandar numerosos paquetes ICMP muy pesados (mayores a 65.535 bytes) con el fin de colapsar el sistema atacado.Los atacantes comenzaron a aprovecharse de esta vulnerabilidad en los sistemas operativos en 1996 vulnerabilidad que en 1997 sería corregida.

Tcp packet
Envia acuse de recibo a los paquetes que no llegan protocolos q funcionanen perfecta armonia,cubriendo todos los niveles necesarios para la transmision de datos



IP_ La gramatica del texto se conoce tambiém:analisis del discurso, linguistica del texto o gramática textual, cuyo objeto de estudio es el texto.
Además se relaciona con el analisis del discruso por que se utiliza frecuentemtne como sinónimo, sin embargo aunque sea disciplina emparentada mantiene un enfoque diferente.
En el 1970 ocurrieron varias transfromaciones la mas importante es la presuposición de que la gramática de una lengua debe dar cuenta no solo de las oraricones realizadas medienate emisioens de hablante nativos, sino tbn de relaciones entre oraciones, o sea de textos enteros subyacentes a estas emisiones.
La gramátia generativo-transformacional, mencionada anteriormente, tbn produjo interesados en aspectos del texto tales como la pronominalización y la presuposición: pero no llegaron a sitematizar sus conocimientos


ROUTER

Es un dispositivo de hardware para interconexión de red de computadoras que opera en la capa tres (nivel de red). Este dispositivo permite asegurar el enrutamiento de paquetes entre redes o determinar la ruta que debe tomar el paquete de datos.


Un firewall, es un elemento de software o hardware utilizado en una red para prevenir algunos tipos de comunicaciones prohibidos según las políticas de red que se hayan definido en función de las necesidades de la organización responsable de la red.

La idea principal de un firewall es crear un punto de control de la entrada y salida de tráfico de una red. Un firewall correctamente configurado es un sistema adecuado para tener una protección a una instalación informática, pero en ningún caso debe considerarse como suficiente. La Seguridad informática abarca más ámbitos y más niveles de trabajo y protección.


LAN son las siglas de Local Area Network, Red de área local. Una LAN es una red que conecta los ordenadores en un área relativamente pequeña y predeterminada (como una habitación, un edificio, o un conjunto de edificios).


WAN son las siglas de Wide Area Network, red de área amplia, una red de ordenadores que abarca un área geográfica relativamente grande. Normalmente, un WAN consiste en dos o más redes de área local (LANs).
Los ordenadores conectados a una red de área ancha normalmente están conectados a través de redes públicas, como la red de teléfono. También pueden estar conectados a través de líneas alquiladas o de satélites.
El WAN más grande que existe es Internet.



Switch: es un dispositivo que permite la interconexión de redes solo cuando esta conexión es necesaria. El switch se encarga de hacer que ese mensaje llegue único y exclusivamente al segmento requerido

lunes, 22 de septiembre de 2008

miércoles, 17 de septiembre de 2008

Compresore de archivos-

1-¿Cuáles son los compresores y descompresores de archivos mas conocidos?
• Winzip y Winrar=)
• 7 sipGenius Suite
• Popwer zip
• Power archiver


2-¿Para que sirven los compresores de archivos?
• Para almacenar documentos
• Para guardar archivos
• Para imprimir archivos
 Para comprimir y descomprimir archivos=)

3-¿Que diferencia hay entre Winzip y Winrar ?
• Uno sirve para comprimir y otr para descomprimir archivos
• Unos sirve para copiar y el otro para editar
• Tienen la misma utilidad=)
• Uno sirve para crear y el otro para copiar

4-¿Para qué se utilizan los compresores?
• Para que un archivo llegue con menos peso=)
• Para que la computadora ande mas rapido
• No se utilizan nunca
• Para imprimir-

5- ¿Cuál es el primer paso para utilizar WINZIP?
• Al instalar el winzip el programa por defecto se instalara en modo mágico, para los principiantes os aconsejo que lo dejéis así, descomprimir un zip tiene poca explicación, hacéis doble clic sobre el programa y vais siguiendo las instrucciones.=)
• Es indistinto
• Ya viene instalado en la PC
• Se debe comprar el CD

6-¿ Cuántos compresores de archivos existen ?
• 56
• Infinitos.
• 47=)
• 2

7- ¿Que función tiene WINRAR?
• La misma que WINZIP=)
• Para comprimir, descomprimir y transformar archivos
• Para crear archivos
• Para imprimir

8. ¿cual es el compresor y descompresor de archivos?
• Winace =)
• Adobe
• Picassa
• Word

9. La extensión de un archivo comprimido es
• Ar.
• Zip=)
• Com
• Cl


10. Normalmente se utiliza para
• Ver una película
• Mandar una foto por mail =)
• Bajar música a un CD
• Escuchar mejor el sonido.

miércoles, 10 de septiembre de 2008

Compresores de archivos.






¿Para que se utilizan los compresoes de archivos?
Se utiliza para comprimir Y descomprimir, en los formatos de compresion mas populares de internet.

Nombra 3 ejemplos en donde se pueda utilizar WINZIP o WINRAR.
a)Si se desea descargar por ejemplo un video de internet, a traves de los compresores llegarian con menos peso, y llegaria a mayor velocidad.
b)por ejemplo si yo le quiero mantad a alguien un mail con muchas fotos, en vez de enviar tantos archivos como las mismas, con solo enviar uno que lleve todos.
c)Cuando grabas un CD o una pelicula.

Ejemplo cotidiano.
Cuando me mandan un mail y tengo que descomprimir el archivo.

¿Que tengo que tener para poder descomprimir un archivo que me mandan por mail?
WINZIP o WINRAR (cualquier descompresor de archivos)

Nombrar, mínimos dos compresores de archivos
Winzip 11.1 En español
7-zip Español
KGB archiver
WinAce 2.69 Español


Detallar los pasos para comprimir y descomprimir
Al instalar el winzip el programa por defecto se instalara en modo mágico, para los principiantes os aconsejo que lo dejéis así, descomprimir un zip tiene poca explicación, hacéis doble clic sobre el programa y vais siguiendo las instrucciones.
Para convertir una carpeta en zip es tan fácil como poner el puntero del Mouse sobre la carpeta que queréis comprimir, abrir el menú contextual con el botón derecho del Mouse y seleccionar Winzip -------> Añadir a fichero zip , os aparecerá una ventana donde podéis seleccionar el tipo de compresión o dejarlo en normal y a continuación le pulsáis a Añadir, y depende del tamaño del archivo en unos segundos estará comprimido y listo para enviar
Para abrir un archivo rar hacemos doble clic sobre el archivo que tenemos comprimido y se nos abre una ventana. Pinchamos sobre Extract To y el archivo automáticamente se nos descomprimirá .
Para crear un archivo rar es tan fácil como con el Winzip, ponemos el Mouse sobre la carpeta que deseamos comprimir, abrimos el menú contextual con el botón derecho del Mouse y pinchamos sobre Add to archive con el icono del rar delante, nos aparece una ventana donde podemos poner el nombre del archivo, el tipo de compresión y a continuación pinchamos sobre aceptar y ya tenemos nuestra carpeta metida en un rar.
El uso de winace es básicamente igual que el rar, para abrir hacemos doble clic sobre el archivo y le damos a extraer, y para comprimir en ACE es igual que en Rar pinchamos sobre Add to donde tenemos el icono del ACE al pulsar el botón derecho del Mouse sobre el archivo y seleccionamos los archivos a comprimir, el nombre y el tipo de compresión.

miércoles, 27 de agosto de 2008

lunes, 25 de agosto de 2008

Cuento: "El viejo miseria"



El viejo Miseria.

Jesucristo iba predicando por el mundo, acompañado por un discípulo; cuando a su caballo se le salió una herradura, necesitó un herrero, conociendo así al Viejo Miseria.
Una vez puesta la herradura, Jesucristo le dijo que no tenia dinero para pagarle, a cambio le concedía tres deseos; Miseria no le creyó. El discípulo le dijo al herrero que pida la vida eterna; como este era escéptico, le pidió que nadie se levante de su silla sin su permiso, Jesús se lo concedió, diciéndole: -te quedan dos deseos- el discípulo volvió a aconsejarle que pida la vida eterna; Miseria volvió a desoirlo y pidió que nadie se baje de su higuera sin su permiso, sólo le quedaba un deseo al herrero y ya nervioso el discípulo volvió a decirle que pida la vida eterna, el terco hombre siguió en su postura y pidió que nadie salga de su tabaquera sin su permiso. Jesús concedió su último deseo y se marchó.
Miseria no le dio importancia a lo ocurrido hasta que un día un conocido de él fue a su casa y al querer irse vio con asombro que el hombre no pudo levantarse de su silla sino hasta que él no lo autorizó. Miseria se enojo consigo mismo y exclamó que daría su alma al diablo por veinte años de lujo y placeres. Ni bien terminó de decir esto el mismísimo Diablo se le apareció ante sus ojos y cerraron el trato propuesto por el desdichado herrero.
Pasado el período de tiempo el Diablo mandó a dos representantes a buscar a Miseria, este los recibió muy amable y los invitó a entrar a su casa y que tomen asiento. El viejo herrero empezó a reirse sin parar, los dos representantes del infierno se miraron sorprendidos y Miseria les dijo que si querían levantarse de su silla tendrán que darle veinte años mas de lujos y placeres, estos lo consultaron con Satanás y accedieron a veinte años mas.
Cumplido el plazo el Diablo volvió a mandar a dos emisarios con la advertencia de la astucia de este personaje y que no acepten la invitación de sentarse en su silla. Miseria volvió a recibir con amabilidad a quienes venían a buscar su alma, invitándolos a pasar a su casa y sentarse cómodos, esto no fue aceptado entonces el viejo herrero les dijo que podían comer todos los higos que quisieran ya que él no iba a estar mas en este mundo. Una vez mas hechó a reir desaforadamente obligándolos a darle veinte años mas de lujos y placeres, lo cual fue concedido.
Dos décadas después el Diablo en persona fue a buscar a Miseria advirtiéndole que no haga ningún truco y que le entregue su alma. El viejo desafió a este diciéndole que el no era mas poderoso que Dios, esto irrito a Satanás, y le pidió que le demuestre su poder; el Diablo cayó en la trampa cuando aceptó el pedido de Miseria de convertir todo el infierno en una hormiga y meterlo dentro de su tabaquera.
Dios le pidió a Miseria que libere al Diablo. Este lo hizo con la condición de tener veinte años mas de lujos y placeres, al ser concedido Satanás con todo su infierno corrió despavorido.
A los veinte años nadie fue a buscar a Miseria y este murió de viejo.
Probó entrar en el Cielo, pero le fue denegado. Probó en el infierno, ni bien abrieron la puerta y lo vieron, la cerraron de golpe negándole la entrada. Miseria volvió a la Tierra para quedarse.

miércoles, 11 de junio de 2008

Pautas para la realizacion del cuento!

•La hoja debe ser tamaño A4.
•Margen Inferior i superior, 2.5 cm
•Margen izquierdo 3 cm, derecho 2 cm.
• El título debe tener bordes y sombreados
•Fuente tamaño141
•Sangría de primera linea 1.5 , alineación justificado
• Párrafo anterior y posterior 6 puntos
•Interlineado 1.5
•Encabezado : libro de cuentos alineado a la derecha, fuente 10,línea inferior
•Pie de página: fuente 10, centrado número de pagina-número de páginas
•Imágenes: minimo dos imágenes con formato estrecho
•Letra capital : sin sangría ocupa 4 líneas

lunes, 19 de mayo de 2008

Preguntas Para La Evaluacion.,

1. ¿Por quién fue creada ARPANET?
La red de computadoras ARPANET (Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país.


2. - ¿Qué se describía en los resultados publicados de 1960?

•El uso de una red descentralizada con múltiples caminos entre dos puntos.
•La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.

3. ¿ Que fue muy importante para las comunidades y disciplinas?

La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.

4. ¿Cuáles fueron las 4 reglas fundamentales de Kant?

1 Cada red distinta debería mantenerse por sí misma y no deberían requerirse cambios internos a ninguna de ellas para conectarse a Internet.
2 Las comunicaciones deberían ser establecidas en base a la filosofía del "best-effort" (lo mejor posible). Si un paquete no llegara a su destino debería ser en breve retransmitido desde el emisor.
3 Para interconectar redes se usarían cajas negras, las cuales más tarde serían denominadas gateways (pasarelas) y routers (enrutadores). Los gateways no deberían almacenar información alguna sobre los flujos individuales de paquetes que circulasen a través de ellos, manteniendo de esta manera su simplicidad y evitando la complicada adaptación y recuperación a partir de las diversas modalidades de fallo.
4 No habría ningún control global a nivel de operaciones

5.¿Cuál fue el concepto de Roberts?

El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos.

6. ¿Cuándo se estableció el primer enlace de arpanet?

El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista.


7. ¿Cómo funcionaban los primeros ordenadores?

Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un MODEM telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo).

8. ¿Cuáles fueron las ideas claves de los resultados de Paul Brand en 1960?

Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave:
El uso de una red descentralizada con múltiples caminos entre dos puntos.
La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.

9.¿Qué llevaba acarrada la comercialización de Internet?

La comercialización de Internet llevaba acarreada no sólo el desarrollo de servicios de red privados y competitivos sino también el de productos comerciales que implementen la tecnología Internet.


10. ¿Qué es Internet?

Internet es tanto un conjunto de comunidades como un conjunto de tecnologías y su éxito se puede atribuir tanto a la satisfacción de las necesidades básicas de la comunidad como a la utilización de esta comunidad de un modo efectivo para impulsar la infraestructura

11. ¿Qué invento Ray Tomlinson?

En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. El protocolo FTP ya estaba facilitando el movimientos de archivos ARPANET.


12. ¿Qué eran los IMPs?

Los IMPs (Procesadores del interfaz de mensajes) eran pequeños ordenadores. Éstos implementaban la técnica de almacenar y reenviar y utilizaban un modem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo).

13. ¿Cuáles son los cuatro aspectos distintos en que gira la historia de Internet?

Evolución tecnológica desde la primitiva investigación en conmutación de paquetes, ARPANET hasta tecnologías de la cuales la investigación actual continúa tratando de expandir los horizontes de la infraestructura en dimensiones tales como escala, rendimiento y funcionalidades de alto nivel.Aspectos de operación y gestión de una infraestructura operacional global y compleja.Aspectos sociales, que tuvieron como consecuencia el nacimiento de una amplia comunidad de internautas trabajando juntos para crear y hacer evolucionar la tecnología.Aspecto de comercialización que desemboca en una transición enormemente efectiva desde los resultados de la investigación hacia una infraestructura informática ampliamente desarrollada y disponible.

14. ¿Se puede decir que Internet ha acabado su proceso de cambio?

No. Ahora está cambiando para proveer nuevos servicios como el transporte en tiempo real con vistas a soportar, por ejemplo, audio y vídeo. La disponibilidad de redes penetrantes y omnipresentes, como Internet, junto con la disponibilidad de potencia de cálculo y comunicaciones asequibles en máquinas como los ordenadores portátiles, los PDA y los teléfonos celulares, está posibilitando un nuevo paradigma de informática y comunicaciones "nómadas".Esta evolución nos traerá una nueva aplicación: telefonía Internet y, puede que poco después, televisión por Internet. Está cambiando para acomodar una nueva generación de tecnologías de red con distintas características y requisitos: desde ancho de banda doméstico a satélites. Y nuevos modos de acceso y nuevas formas de servicio que darán lugar a nuevas aplicaciones, que, a su vez, harán evolucionar a la propia red.


15. ¿Qué crecimiento empresarial hubo y que trajo como consecuencia?

El crecimiento en el mundo empresarial trajo como consecuencia un incremento de la preocupación por el propio proceso de estándares. Desde primeros de los años 80 hasta hoy, Internet creció y está creciendo más allá de sus raíces originales de investigación para incluir a una amplia comunidad de usuarios y una actividad comercial creciente. Se puso un mayor énfasis en hacer el proceso abierto y justo. Esto, junto a una necesidad reconocida de dar soporte a la comunidad de Internet, condujo a la formación de la Internet Society en 1991, bajo los auspicios de la CNRI (Corporation for National Research Initiatives, Corporación para las Iniciativas de Investigación Nacionales) de Kahn y el liderazgo de Cerf, junto al de la CNRI.

16. ¿Qué cambios están viviendo debido a la tecnología y su evolución?

Esta evolución nos traerá una nueva aplicación: telefonía Internet y, puede que poco después, televisión por Internet. Está permitiendo formas más sofisticadas de valoración y recuperación de costes, un requisito fundamental en la aplicación comercial. Está cambiando para acomodar una nueva generación de tecnologías de red con distintas características y requisitos: desde ancho de banda doméstico a satélites. Y nuevos modos de acceso y nuevas formas de servicio que darán lugar a nuevas aplicaciones, que, a su vez, harán evolucionar a la propia red.

17. ¿Que desarrollo permitió que la naciente Internet floreciera?

Respuesta: El desarrollo de LAN, PC y Estaciones de trabajo.

17. a. ¿ En que año fue diseñado el Bitnet? b.¿Por quien fue diseñado? c. ¿Y para que sirve?

(A y b). Fue diseñado en el año 1981por Greydon Freeman e Ira Fuchs.

Respuesta: (C). Sirve para unir las ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como postales.


19. ¿Qué es Ergonomia?

La Ergonomía es una ciencia que estudia las características, necesidades, capacidades y habilidades de los seres humanos, analizando aquellos aspectos que afectan al entorno artificial construido por el hombre relacionado directamente con los actos y gestos involucrados en toda actividad de éste.
En todas las aplicaciones su objetivo es común: se trata de adaptar los productos, las tareas, las herramientas, los espacios y el entorno en general a la capacidad y necesidades de las personas, de manera que mejore la eficiencia, seguridad y bienestar de los consumidores, usuarios o trabajadores (Tortosa et al, 1999).

20. ¿Qué aspectos definen a una organización como un buen lugar para trabajar?

—Es aquel donde uno confía en la gente con la que trabaja, se siente orgulloso de lo que hace y disfruta con sus compañeros de trabajo. Esta definición surge de entrevistas que hice en docenas de lugares de trabajo en todo el mundo. Descubrí que los empleados invariablemente tenían un alto nivel de confianza en la gerencia de la firma, decían sentirse orgullosos de sus trabajos y de la empresa, y compartían una sensación de camaradería. —Ud. señala que la confianza implica credibilidad, respeto y trato justo. —Para consolidar su credibilidad, la gerencia debe ser transparente en la información, de manera que los empleados puedan preguntar y determinar si se les está diciendo la verdad o no. En la mayoría de los mejores lugares de trabajo, los altos ejecutivos realizan sesiones de preguntas y respuestas con sus empleados, o las propician a través del correo electrónico o la intranet.El respeto supone mostrar aprecio a los empleados por hacer bien su trabajo. También, hacer todo lo posible para proporcionarles herramientas y oportunidades de entrenamiento para crecer. Es importante que los empleados sientan que la gerencia escucha genuinamente sus ideas y sugerencias y que se los tiene en cuenta, en la medida de lo posible, al tomar decisiones respecto de sus trabajos. Por último está la cuestión de la justicia, que es incluso más importante que el salario. Implica la necesidad de que la gente sienta que es tratada con justicia a la hora de ser elegidos para ascensos o realizar tareas que implican desafíos. —

21. ¿Qué podrían hacer las empresas para convertirse en buenos lugares de trabajo?

—En todos los casos que estudié, esta transformación comenzó con una gerencia que mejoró su comunicación con los empleados, para aumentar su credibilidad. En segundo lugar, las empresas deben asegurarse de que los empleados se sientan apreciados. Siempre me sorprende ser testigo de la importancia de decir "gracias". —

22. ¿Cualquier empresa puede lograrlo en el corto plazo?

—Con certeza es posible hacer esos cambios en un período que no excede los tres años. Uno de los mejores ejemplos es Continental Airlines, que no sólo era un espantoso lugar de trabajo, sino que además estaba al borde de la quiebra cuando un nuevo equipo de administración se hizo cargo, en 1994. En tres años, la empresa logró recuperarse financieramente. Y también se convirtió en uno de los mejores lugares de trabajo y figuró en la lista de Fortune entre las "Cien mejores empresas donde trabajar". Lo logró concentrándose en las comunicaciones internas y en el reconocimiento hacia los empleados.—

23. ¿Qué relación hay entre un buen ambiente de trabajo y la rentabilidad empresaria?

Muchos estudios demostraron una alta correlación entre las prácticas para mejorar el lugar de trabajo y el éxito financiero. Por ejemplo, una firma de servicio de inversiones de Wall Street recientemente realizó un estudio en el que se comparaban los resultados financieros de una cartera de acciones de empresas que habían figurado en la lista de las "Cien mejores empresas donde trabajar" de Fortune, con otra del Standard & Poor 500. Los resultados fueron notables. El rendimiento del dinero invertido en la cartera de las "Cien mejores..." fue superior por casi cinco a uno. Estudios en Gran Bretaña y Brasil han dado resultados similares. Cuando los empleados se sienten bien tratados ofrecen mejores servicios a los clientes, lo que significa más ganancias. —

24. ¿Qué pueden hacer las empresas latinoamericanas para mejorar sus ambientes?

Nuestro Instituto determinó que las empresas latinoamericanas son extremadamente receptivas. El año pasado, más de 30.000 empleados de la región participaron de la encuesta. Vimos que, en general, los resultados de América Latina eran comparables a los de América del Norte y Europa, lo que demuestra que las mejores empresas latinoamericanas son realmente de clase internacional, a pesar de la amplia incidencia del desempleo y la pobreza en la región. Tal vez a causa de las dificultades económicas, también hallamos que muchas empresas latinoamericanas se preocupan por su responsabilidad social en tanto corporaciones.

lunes, 12 de mayo de 2008

ergonomia-.

ERGONIMIA ,.

La ergonomía es una disciplina que se ocupa de estudiar la forma en que interactúan el cuerpo humano con los artefactos y elementos que lo rodean buscando que esa interacción sea lo menos agresiva y traumática posible. Toda herramienta ergonómica fue diseñada para adaptarse al hombre. En la información estas técnicas son muy usados en teclados, sillas, Mouse, etc.


Consejos:


• Organiza tu área de trabajo para asegurar que todos lo materiales y elementos del equipo se puedan alcanzar fácilmente sin forzar la postura.
• Verifica tu postura antes de comenzar a trabajar y ajusta al mobiliario para mantener una buena postura.
• Comienza el trabajo de teclado lentamente cada día a modo de precalentamiento hasta llegar a su nivel habitual y vete reduciendo el ritmo hacia el final de la jornada hasta su finalización.
• Coloca un filtro protector para evitar deslumbramientos.
• Nunca acumules pausas de trabajo para obtener una pausa mas larga.
• Notifica de forma inmediata los fallos o averías de tu equipo.

La postura:


Una buena postura es aquella en la que te sientes cómodo/a y bien apoyado/a. Esto reduce la tensión muscular y la fatiga:

• Los hombros deben estar relajados
• Los codos deben estar a la altura del teclado y próximos al cuerpo.
• Las muñecas rectas ( si es necesario utiliza posamuñecas).
• La cabeza derecha y en posición equilibrada.
• La espalda apoyada en el respaldo de la silla.
• Evitar la presión de las piernas sobre el borde anterior del asiento.
• Los pies firmemente apoyados y sin cruzar las piernas.



Ajustar el mobiliario :


La altura de la silla debe ajustarse de modo que los codos se sitúen a nivel del teclado.
Reposapiés- ajustar la altura para que las caderas estén ligeramente mas bajo que las rodillas
El apoyo lumbar ajustarlo de manera que permita apoyar la curva lumbar.
La profundidad de asiento – ajustar la profundidad de asiento para que te permita apoyarte firmemente en el respaldo y queden todavía tres dedos la parte anterior del asiento y las piernas.
La pantalla - ajustar la parte superior de la pantalla al nivel de los ojos con el centro de la pantalla no mas de 40 cm. de altura respecto a la superficie de trabajo coloca la pantalla a una cómoda distancia ( entre 40/55 cm. desde el borde anterior de la mesa).
El portapapeles- la posición ideal es al lado y a la altura de la pantalla. La posición ideal es al lado y a la altura de la pantalla.
El ratón:

• Utiliza el ratón tan cerca del lado del teclado como sea posible.
• Sujeta el ratón entre el pulgar y el cuarto y quinto dedo. El segundo y el tercero deben descansar ligeramente sobre los botones del ratón.
• Mantén la muñeca recta si es necesario utiliza un porta muñecas




Cuestionario:

1)¿Qué es la ergonomía?

La ergonomía es una disciplina que se ocupa de estudiar la forma en que interactúan el cuerpo humano con los artefactos y elementos que lo rodean buscando que esa interacción sea lo menos agresiva y traumática posible.

2)¿Para qué son utilizadas las herramientas técnicas?
Toda herramienta ergonómica fue diseñada para adaptarse al hombre. En la información estas técnicas son muy usados en teclados, sillas, mouse, etc.

3)¿Cómo debe ser el trabajo del teclado?
Comienza el trabajo de teclado lentamente cada día a modo de precalentamiento hasta llegar a su nivel habitual y vete reduciendo el ritmo hacia el final de la jornada hasta su finalización.

4)Qué es la postura?
Una buena postura es aquella en la que te sientes cómodo/a y bien apoyado/a. Verifica tu postura antes de comenzar a trabajar y ajusta al mobiliario para mantener una buena postura.

5)¿Cómo debe ser el área de trabajo?
Debes organizar tu área de trabajo para asegurar que todos lo materiales y elementos del equipo se puedan alcanzar fácilmente sin forzar la postura.

6) ¿Cuál debe ser la altura de la silla?
La altura de la silla debe ajustarse de modo que los codos se sitúen a nivel del teclado.

7) ¿Cuáles son las características del ratón?
Utiliza el ratón tan cerca del lado del teclado como sea posible.Sujeta el ratón entre el pulgar y el cuarto y quinto dedo. El segundo y el tercero deben descansar ligeramente sobre los botones del ratón.Mantén la muñeca recta si es necesario utiliza un porta muñecas.

8) ¿Cuál debe se la profundidad del asiento?
La profundidad de asiento – ajustar la profundidad de asiento para que te permita apoyarte firmemente en el respaldo y queden todavía tres dedos la parte anterior del asiento y las piernas.

9)¿Cómo habría que ajustar la pantalla?
La pantalla - ajustar la parte superior de la pantalla al nivel de los ojos con el centro de la pantalla no mas de 40 cm. de altura respecto a la superficie de trabajo coloca la pantalla a una cómoda distancia (entre 40/55 cm. desde el borde anterior de la mesa).

10)¿Qué debemos evitar sobre la postura?
Debemos evitar la presión de las piernas sobre el borde anterior del asiento.

domingo, 11 de mayo de 2008

Historia de Internet.,

Cuestionario:

1) ¿Qué fue Arpanet?

La
red de computadoras ARPANET (Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país. El primer nodo se creó en la Universidad de California, Los Ángeles y fue la espina dorsal de Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP en 1983.

2) ¿En que trabajaba Paul Baran?

Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares.
Sus resultados se publicaron a partir de
1960, y en ellos se describían dos ideas clave:
El uso de una red descentralizada con múltiples caminos entre dos puntos.
La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.

3) ¿Cuál fue el concepto origal de Roberts?

El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos.

4) ¿Cómo funcionaban los primeros ordenadores?

Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un
MODEM telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo).

5) ¿Cuándo se establecio el primer enlace de Arpanet?

El primer enlace de ARPANET se estableció el
21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista.

6) ¿Quién invento el corro electrónico?

En
1972, Ray Tomlinson de la BBN inventó el correo electrónico. Para entonces el 75% del tráfico ya se debía al éxito del correo electrónico.

7) ¿Internet es una verdadera revolución cultural?

Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.

8) ¿Cuál fue la primera red de ordenadores construidas, por quien y en que año?

Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida.

9) ¿En que consistian las mejoras de Cerf y Khan?

El documento original de Cerf y Kahn sobre Internet describía un protocolo, llamado TCP, que se encargaba de proveer todos los servicios de transporte y reenvío en Internet. Kahn pretendía que TCP diera soporte a un amplio rango de servicios de transporte, desde el envío secuencial de datos, totalmente fiable (modelo de circuito virtual) hasta un servicio de datagramas en el que la aplicación hiciera un uso directo del servicio de red subyacente, lo que podría implicar pérdida ocasional, corrupción o reordenación de paquetes.

10) ¿Quién tomo la iniciativa de operar Internet con computadoras personales?

David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible. La desarrollaron, primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de IBM.

11) ¿Qué se utilizó para facilitar el uso de internet por sus usuario?

Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los hosts de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas.

12) ¿Cómo era internet en 1985 ?

En 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas.

13) ¿Para qué se crearon las primeras redes?

Todas las primeras redes (como ARPANET) se construyeron para un propósito determinado. Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran.

14) ¿Por qué optó la NSF?

La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB (Internet Activities Board, Comité de Actividades de Internet). La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF.


15) ¿ En qué se convertiría IP?

El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había sustituidoo marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información.

16) ¿ Cuál era el efecto de las RFC ?

El efecto de las RFC era crear un bucle positivo de realimentación, con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación.

17) ¿ Con el paso del tiempo en qué se especializó la RCF ?

Con el paso del tiempo, las RFC se han enfocadoa estándares de protocolo –las especificaciones oficiales- aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet.

18) ¿Para qué han sido usadas las listas de correo ?

Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos, y continúan siendo una herramienta importante.

19) ¿Quiénes abandonaron DARPA ?


También en 1985, Kahn y Leiner abandonaron DARPA, y ello supuso un descenso significativo de la actividad de Internet allí. Como consecuencia, el IAB perdió a su principal espónsor y poco a poco fue asumiendo el liderazgo.

20) ¿En qué se ha estado convirtiendo internet?

En los ultimos años, internet se ha acabado convirtiendo en una "commodity", un servicio de disponibilidad generalizada para usuarios finales, y buena parte de la atención se ha centrado en el uso de la GII (Global Information Infraestructure) para el soporte de servicios comerciales.

lunes, 14 de abril de 2008

Medidas de Almacenamiento .,

MEDIDAS DE ALMACENAMIENTO!_.


Bit
Byte (8 bits)
Kbyte 1024 byte
Megabyte (1024 kb)
Gygabytes (1024 mb)
Terabyte (1024 gb)

lunes, 31 de marzo de 2008

Generaciones de la computadora.,

Generaciones de la computadora
En este artículo estudiaremos como se han ido sucediendo la generaciones de computadoras. Partiendo de 1946 hasta nuestros días.

La Primera Generación

J.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el nuevo ordenador el 14 de febrero de 1946. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo cerca de 17 mil válvulas electrónicas. Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. En 1943, antes de la entrada en operación del ENIAC Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los códigos secretos alemanes.
ENIAC
En 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos los ordenadores, y que las instrucciones y datos fueran compilados y almacenados internamente en el ordenador, en la secuencia correcta de utilización. Estas sugerencias sirvieron de base filosófica para los proyectos de ordenadores. (Actualmente se investigan ordenadores "no Von Neumann", que funcionan con fuzzy logic, lógica confusa) A partir de esas ideas, y de la lógica matemática o álgebra de Boole, introducida por Boole en el inicio del siglo XIX, es que Mauchly y Eckert proyectaron y construyeron el EDVAC, Electronic Discrete Variable Automatic Computer, completado en 1952, que fue la primera máquina comercial electrónica de procesamiento de datos del mundo. Ellos habían intentado eso con El BINAC, ordenador automático binario, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) lo suficiente para ser llevado a bordo de un avión, pero que nunca funcionó. El EDVAC utilizaba memorias basadas en líneas de retardo de mercurio, muy caras y más lentas que los CRTs, pero con mayor capacidad de almacenamiento. Wilkes construyó el EDSAC, Electronic Delay Storage Automatic Calculator en 1949, que funcionaba según la técnica de programas almacenados.
El primer ordenador comercial de gran escala fue el UNIVAC, Universal Automatic Computer, americano, de 1951, que era programado tocando cerca de 6.000 llaves y conectando cables a un panel. La entrada y salida de informacion era realizada por una cinta metálica de 1/2 pulgada de ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que, solo, consumía 14.000 W. Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits, ambos de IBM. En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine, el SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic Computer.
Entre 1945 y 1951, el WHIRLWIND, del MIT, fue el primer ordenador que procesaba informacion en tiempo real, con entrada de datos a partir de cintas perforadas y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir (Whirlwind quiere decir remolino).En 1947 Bardeen, Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester construye una memoria magnética. Los ordenadores a transistores surgen en los años 50, pesando 150 kg, con consumo inferior la 1.500 W y mayor capacidad que sus antecesores valvulados.



La Segunda Generación



Ejemplos de esta época son el IBM 1401 y el BURROUGHS B 200. En 1954 IBM comercializa el 650, de tamaño medio. El primer ordenador totalmente transistorizado fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958, tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseia dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lapiz óptico.
BURROUGH En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and Computer. En enero de 1959 Tejas Instruments anuncia al mundo una creación de Jack Kilby: el circuito integrado. Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos milésimas de segundo, un ordenador transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de tercera generación en menos tiempo aún.


La Tercera Generación


Esta generación es de la década del 60, con la introducción de los circuitos integrados. El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC podía almacenar veinte números de diez dígitos, estos podían almacenar millones de números. Surgen conceptos como memoria virtual, multiprogramación y sistemas operacionales complejos. Ejemplos de esta época son el IBM 360 y el BURROUGHS B-3500.

IBM 360
En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital de 100 dólares, se transformo en la primera compañía de software con acciones negociadas en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la amer
icana DEC, Digital Equipament Corporation. Dependiendo de su configuración y accesorios él podía ser adquirido por el accesible precio de US$ 18,000.00. Le siguió el PDP-8, de precio más competitivo. Siguiendo su camino otras compañías lanzaron sus modelos, haciendo que a finales de la década ya existieran cerca de 100.000 ordenadores esparcidos por el mundo. En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la cuarta generación surge con los chips VLSI, de integración a muy larga escala. Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR 8800 en 1974/5. En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall establece la Digital Research Incorporation, para vender el sistema operacional CP/M. En 1977 Jobs y Wozniak crean el microcomputador Apple, a Radio Shack el TRS-80 y la Commodore el PET. La plantilla Visicalc (calculador visible) de 1978/9, primer programa comercial, de Software Arts. En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el Wordstar, y Paul Lutus produce el Apple Writer. El programa de un ingeniero de la NASA, Waine Ratliff, el dBASE II, de 1981. También de 1981 IBM-PC y el Lotus 1-2-3, de Kapor, que alcanzó la lista de los más vendidos en 1982.
l Sinclair ZX81/ZX Spectrum es un ordenador minúsculo concebido por John Sinclair, profesor en la Universidad de Cambrige en U.K.Inicialmente concebido para la utilización de los estudiantes de la Universidad de Cambrige. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA. La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc. necesarios para el funcionamiento del sistema y un traductor para el lenguaje de programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K pero, era expandible hasta 16K. En la caja de plástico se alojaba también un subsistema de comunicaciones para conexión en serie a periféricos denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida de sonido, un codificador de imágenes para TV. En la parte trasera de la caja de plástico tenía un conector donde se podía conectar una impresora minúscula que usaba un rollo de papel especial. El ordenador era suministrado con un cable para la conexión al televisor y otro para la conexión con un grabador de "cassettes" musical (norma Philips). El transformador de corriente eléctrica alterna a continua era adquirido por separado. Los programas y datos eran grabados en un cassette magnético y eran también leídos desde uno.El teclado no tenía teclas. Los caracteres ASCII eran impresos en una membrana. Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las causas principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy popular debido a su bajo precio de venta
Osborne1
Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de 64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad, un monitor de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de teclas, uno alfanumérico con los caracteres ASCII y otro numérico. Disponía de conectores para un monitor externo, ports serie RS-232C y paralelo IEEE-488 o Centronics.El sistema era alimentado por una batería propia recargable con una autonomía de 5 horas, por una batería externa de automóvil o por un transformador de corriente eléctrica alterna a continua.El sistema operativo era el CP/M desarrollada por la Digital Corporation. El software suministrado incluía un Interpretador M BASIC desarrollado por MICROSOFT, un Compilador BASIC desarrollado por la Compyler Systems, una hoja de cálculo SUPERCALC (derivada del Visicalc) y un procesador de texto denominado WORDSTAR. Podía ser programado en BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER y CRO
SS-ASSEMBLER.Última morada conocida: desconocida (fue visto en la FILEME-82 en Lisboa).

IBM PC/XT
Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una versión PC-AT.El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ.Era construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores. La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseia una salida para impresora y el PC-XT disponía de un interfaz para comunicaciones assincronas. El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft para IBM. El lenguaje de programación que utilizada era el BASIC.. Sólo cerca de dos años después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando para el efecto la penetración en las empresas donde tenía instalado mainframes y "pequeños ordenadores".
PC XT

La Cuarta Generación (1981-1990)



Surgieron en el transcurso del uso de la técnica de los circuitos LSI (LARGE SCALE INTEGRATION) y VLSI (VERY LARGE SCALE INTEGRATION). En ese periodo surgió también el procesamiento distribuido, el disco ótico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de texto, cálculos auxiliados, etc.
1982- Surge el 286
Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris.

1985- El 386
Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible correr softwares graficos más avanzados como era el caso del Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración.
386

1989- El 486 DX
A partir de este momento el coprocessador matemático junto con el propio procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la memoria de 72 pines, mucho más rapida que su antepasada de 30 pines y de las placas PCI de 32 bits dos veces más veloces que las placas ISA . Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante con la aparición del Windows 95

La Quinta Generación (1991-hasta hoy)

Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas necesidades. Una de las principales características de esta generación es la simplificación y miniaturización del ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con los precios cada vez más accesibles. La tecnología VLSI está siendo sustituida por la ULSI (ULTRA LARGE SCALE INTEGRATION).El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la ejecución de muchas operaciones simultáneamente por las máquinas. La reducción de los costos de producción y del volumen de los componentes permitió la aplicación de estos ordenadores en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones, automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación de ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL.
1993- Surge el Pentium
Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando aún más su performance
1997- El Pentium II
1999- El Pentium III
2001- el Pentium 4
No hay grandes novedades después de 1997, ya que los cambios estuvieron basados en los cada vez más veloces procesadores

El Futuro - Aquí viene el ordenador cuántico
IBM anunció la construcción del más avanzado ordenador cuántico del mundo. La novedad representa un gran paso en relación al actual proceso de fabricación de chips con silicio que, de acuerdo con especialistas, debe alcanzar el máximo de su limitación física de procesamiento entre 10 y 20 años.El ordenador cuántico usa, en lugar de los tradicionales microprocesadores de chips de silicio, un dispositivo basado en propiedades físicas de los átomos, como el sentido de giro de ellos, para contar números uno y cero (bits), en vez de cargas eléctricas como en los ordenadores actuales. Otra característica es que los átomos también pueden sobreponerse, lo que permite al equipamiento procesar ecuaciones mucho más rápido.

miércoles, 26 de marzo de 2008

Unidades de Almacenamiento.,*

Unidades de almecenamiento.

Las unidades de almacenamiento son aquellos dispositivos, ya sea internos o externos, donde se guardan físicamente los archivos de un sistema.

Disco Duro

El disco duro almacena casi toda la información que manejamos al trabajar con una computadora.
Está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información.
Esta conecta a ella mediante un cable. También va conectado a la fuente de alimentación.
Las características principales de un disco duro son:
La capacidad. Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de 1 byte. La capacidad aumenta constantemente cientos de MB, decenas de GB, cientos de GB.
La velocidad de giro. Se mide en revoluciones por minuto (rpm). Cuanto más rápido gire el disco, más rápido podrá acceder a la información la cabeza lectora.
También existen discos duros externos que permiten almacenar grandes cantidades de información. Normalmente se conectan mediante un cable USB.

Cuando el disco duro está leyendo, se enciende en la carcasa un diodo LED.

Unidades externas

Los discos duros tienen una gran capacidad, pero al estar alojados normalmente dentro de la carcasa, no son transportables. Para intercambiar información con otros equipos (si no están conectados en red) necesitamos utilizar unidades de disco, como los populares disquetes, los CD-ROM o DVD-ROM, los discos magneto-ópticos, etc.

Unidad de 3,5 pulgadas

Disquete
La unidad de 3,5 pulgadas permite intercambiar información utilizando disquetes magnéticos de 1,44 MB de capacidad. La capacidad de soporte es muy limitada. Pues pueden borrarse y reescribirse cuantas veces se desee de una manera muy cómoda, la transferencia de información es bastante lenta.
La unidad de disco se alimenta a partir mediante cables de la fuente de alimentación del sistema. Un diodo LED se ilumina junto a la ranura cuando la unidad está leyendo el disco, como ocurre en el caso del disco duro.

Unidad de CD-ROM

La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes.
Permiten leer los discos compactos de audio.
En estas unidades, además, existe una toma para auriculares, y también pueder estar presentes los controles de navegación y de volumen.
Una característica básica de las unidades de CD-ROM es la velocidad de lectura que normalmente se expresa como un número seguido de una «x» (40x, 52x,..). Este número indica la velocidad de lectura en múltiplos de 128 kB/s.


Unidad de CD-RW (Regrabadora)

Las unidades de CD-ROM son sólo de lectura. Es decir, pueden leer la información en un disco, pero no pueden escribir datos en él.
Una regrabadora (CD-RW) puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 MB o más tamaño (hasta 900 MB) de un disco compacto en unos pocos minutos.

Unidad de DVD-ROM

Las unidades de DVD-ROM, pueden leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x, 16x... Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s.
Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CD-ROM: placa base, fuente de alimentación y tarjeta de sonido. La diferencia más destacable es que las unidades lectoras de discos DVD-ROM también pueden disponer de una salida de audio digital. Gracias a esta conexión es posible leer películas en formato DVD y escuchar seis canales de audio separados.

Unidad de DVD-RW

Puede leer y grabar imágenes, sonido y datos en discos de varios gigabytes de capacidad, de una capacidad de 650 MB a 9 GB.
Unidades magneto-ópticas.
Estas unidades son menentornos domésticos que las unidades de CD-ROM, pero tienen varias ventajas:
Por una parte; admiten discos de gran capacidad: 230 MB, 640 Mb o 1,3 GB.
Además; son discos reescribibles.


Otros dispositivos de almacenamiento.

La
memoria flash. Es un tipo de memoria que se comercializa para el uso de aparatos portátiles, como cámaras digitales o agendas electrónicas. El aparato correspondiente, se conecta a la computadora a través del puerto USB
Discos y cintas magnéticas de gran capacidad. Son unidades especiales que se utilizan para realizar copias de seguridad.

Su capacidad de almacenamiento puede ser de cientos de gigabytes.

miércoles, 19 de marzo de 2008

•Perifericos.•

Perifericos-



Se denominan periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal.
Se entenderá por periférico a todo conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por la
CPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU.
A pesar de que el término periférico implica a menudo el concepto de “adicional pero no esencial”,









Periféricos de entrada: Captan y envían los datos al dispositivo que los procesará.













Periféricos de salida: Son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos este tipo de periféricos es información para el usuario.