miércoles, 16 de marzo de 2011

Manual para identificar las partes de una PC e instalación de una grabadora de CD o DVD

Lo primero que se debe tener en cuenta es que el número de dispositivos IDE que se pueden instalar en un ordenador. En los ordenadores antiguos había un puerto IDE, mientras que los ordenadores modernos tienen 2 puertos IDE. En cada puerto IDE se pueden conectar dos dispositivos, que van conectados al mismo cable; para que el ordenador pueda trabajar con dos dispositivos conectados al mismo cable se deben configurar uno como maestro y otro como esclavo.

Algunas placas base obliga a que el disco duro que contiene el sistema operativo este instalado en el puerto ide1 como maestro.

La distribución "estandar" para un rendimiento óptimo es la siguiente:

A continuación se ve la parte trasera de una grabadora de CD.


Además de mestro y esclavo existe otra configuración con el nombre de Cable Select. Si configuramos la unidad como Cable Select el sistema determinará automáticamente la configuración maestro/esclavo de la unidad, pero para que esto funcione todos los dispositivos del mismo cable IDE se deben configurar como Cable Select, además tendrás que comprobar que tu placa base soporta esta configuración.
Ahora introducimos la unidad en la bahia 5" 1/4 hasta que quede el frontal parejo con la caja y la sujetamos con tornillos. Ya solo queda conectar la unidad con el cable IDE, el cable de Audio y el cable de alimentación.
Un cable IDE se compone de tres conectores, en una punta hay solo un conector que es el que se enchufa a la placa base (azul), en la otra punta hay dos conectores cercanos, el de la punta es el maestro (negro) y el que esta mas abajo el esclavo (blanco).
Tras conectar correctamente el cable a la unidad solo queda enchufar nuevamente el ordenador y esperar a que la reconozca.
A la hora de ampliar la memoria de nuestro computador es importante averiguar el tipo que tenemos, y cuanto podemos ampliar como máximo

lunes, 7 de marzo de 2011

SISTEMA INFORMATICO

MICROCOMPUTADOR

PRIMERA CALCULADORA,CIRCUITO, ENIAC

SOFTWARE Y HARDWARE

Software al equipamiento lógico o soporte lógico de una computadora digital
Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación.
Tipos:
Software de sistema Software de programación Software de aplicación
Hardware
Los componentes y dispositivos del Hardware se dividen en Hardware Básico y Hardware Complementario
El Hardware Básico: son las piezas fundamentales e imprescindibles para que la computadora funcione como son: Placa base, monitor, teclado y ratón.

Software Libre

Computadoras

MARENOSTRUM

HISTORIA DEL COMPUTADOR
1642. fue inventada La primera máquina de calcular mecánica, un precursor del ordenador digital. Por el  matemático francés Blaise Pascal.                                                                         Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto.
1670. el filósofo y matemático alemán Gottfried Wilhelm Leibniz, perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas
1880. Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos.
Siglo XIX. El matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. La máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.
Siglo XX. Los ordenadores analógicos comenzaron a construirse. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles
II Guerra Mundial (1939-1945). Un equipo de científicos y matemáticos crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus.
Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos.

1943. el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo.
1939. John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College, este prototipo y las investigaciones posteriores se realizaron en el anonimato.                                                                                                      Más tarde se desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1946. Contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente.
Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

1950. el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

1960.  Apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error.
1997. El microprocesador se convirtió en una realidad con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.

2000 Y ACTUALIDAD. Todos los ordenadores digitales modernos son similares conceptualmente con independencia de su tamaño. Sin embargo, pueden dividirse en varias categorías según su precio y rendimiento:                                                                    
·         Miniordenador o Minicomputadora, un ordenador o computadora de nivel medio diseñada para realizar cálculos complejos y gestionar eficientemente una gran  cantidad de entradas y salidas de usuarios conectados a través de un terminal.

·         Mainframe, un ordenador o computadora de gran capacidad, diseñado para realizar tareas computacionales muy intensas. Las computadoras de tipo mainframe proporcionan acceso a una gran cantidad de usuarios simultáneamente —pueden ser hasta varios millares—, conectados al sistema a través de terminales.

·         Supercomputadora, ordenador o computadora de gran capacidad, tremendamente rápida y de coste elevado, utilizada en cálculos complejos o tareas muy especiales que requieren gran cantidad de sofisticados algoritmos y de cálculos matemáticos. La diferencia entre los superordenadores y los mainframes es que los primeros utilizan toda su potencia para ejecutar un programa lo más rápidamente posible, mientras que los segundos la utilizan para ejecutar muchos programas a la vez.



Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.