Blogia

estudiafacil

HISTORIA DE LOS ORDENADORES

HISTORIA DE LOS ORDENADORES

  1. 1.    Introducción.

Ordenador o Computadora, dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada.

2. Precursores del ordenador.

 

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada.

3. Nacimiento del ordenador.

PC IBM.
International Business Machines Corporation, IBM, fabricante estadounidense de ordenadores o computadoras, con sede en Armonk, Nueva York. IBM es uno de los grandes proveedores de sistemas de tratamiento de información, software, sistemas de comunicaciones, estaciones de trabajo y suministros y servicios auxiliares en todo el mundo. Sus productos se utilizan en una amplia variedad de entornos, desde las compañías privadas hasta los organismos públicos, pasando por las organizaciones científicas, la defensa, la medicina y la exploración del espacio. La compañía se estableció en 1911 como Computing-Tabulating-Recording Company, producto de la fusión de tres compañías menores. Tras varias adquisiciones, absorbió a la International Business Machines Corporation en 1924 y tomó su propio nombre. Thomas Watson llegó ese mismo año y comenzó a convertir la indecisa compañía en un gigante industrial. IBM se convirtió con rapidez en el fabricante de relojes de control de personal más importante de Estados Unidos, y desarrolló y comercializó la primera máquina de escribir eléctrica. En 1951 la compañía entró en el terreno de las computadoras. El desarrollo de la tecnología de IBM se financió en gran medida mediante contratos con la Comisión de Energía Atómica del gobierno de Estados Unidos. El paralelismo entre los productos fabricados para el gobierno y los comercializados por la compañía era evidente. A finales de la década de 1950, IBM se distinguió por dos innovaciones: el concepto de familia de computadoras (su familia 360) que permitía ejecutar el mismo software en todos los equipos pertenecientes a la familia, y la nueva máxima de la empresa, según la cual todos los clientes podrían utilizar con éxito un sistema IBM. Esta nueva política produjo una enorme lealtad hacia el Big Blue, o gigante azul, sobrenombre con que se empezó a conocer a IBM. Entre la década de 1960 y la de 1980, IBM dominó el mercado global de las grandes computadoras, aunque durante los años ochenta comenzó a ceder terreno ante otros fabricantes en áreas especializadas como la computación de alto nivel. Cuando durante la década de 1970 aparecieron los miniordenadores o minicomputadoras, IBM los vio como una amenaza a su mercadode grandes computadoras y no supo reconocer su potencial, dando pie al éxito de competidores como Digital Equipment Corporation, Hewlett-Packard y Data General. Sin embargo, en 1981 IBM presentó con gran éxito el IBM PC, que se convirtió rápidamente en un modelo de la microinformática. La compañía tuvo menos éxito a la hora de defender su cuota de mercado frente a otras empresas en el terreno de los costes de fabricación. A finales de la década de 1980, IBM se convirtió en el mayor productor del mundo de una línea completa de computadoras y en el principal productor de equipos de oficina, incluyendo máquinas de escribir y fotocopiadoras. Así mismo, la compañía era el principal fabricante de circuitos integrados para sus propios productos. La venta de grandes ordenadores y el software y los periféricos correspondientes suponían casi la mitad del negocio de IBM y entre un 70% y un 80% de sus beneficios. A principios de la década de 1990, en plena recesión de la economía estadounidense, IBM se reorganizó formando divisiones autónomas más cercanas a los diversos mercados de la empresa. Como consecuencia, 40.000 empleados perdieron sus puestos de trabajo en 1992, y se anunciaron más recortes para 1993. A principios de 1993, tras batir el récord de pérdidas en 1992 y sufrir un recorte en los dividendos de las acciones por primera vez en su historia (a menos de la mitad de su valor (anterior), John F. Akers, presidente desde 1985 dimitió. En abril de 1993 se designó como presidente de la compañía a Louis V. Gerstner, hijo. En 1994, IBM se asoció con Apple Computer Inc. para fabricar el Power PC, un ordenador capaz de ejecutar programas de ambas empresas. En 1995, IBM adquirió la Lotus Development Corporation, una empresa de soporte lógico, para ampliar su presencia en dicho sector.

Historia y evolución.
En 1981 IBM presentó el llamado IBM PC. Aunque no incorporaba la tecnología de computación más avanzada, el PC se convirtió en un hito de este sector en ebullición. Demostró que la industria de los microordenadores era algo más que una moda pasajera y que, de hecho, los microordenadores eran una herramienta necesaria en el mundo empresarial. La incorporación de un microprocesador de 16 bits en el PC inició el desarrollo de micros más veloces y potentes. Así mismo, el uso de un sistema operativo al que podían acceder todos los demás fabricantes de computadoras abrió el camino para la estandarización de la industria.
A mediados de la década de 1980 se produjeron una serie de desarrollos especialmente importantes para el auge de los microordenadores. Uno de ellos fue la introducción de un potente ordenador de 32 bits capaz de ejecutar sistemas operativos multiusuario avanzados a gran velocidad. Este avance redujo las diferencias entre micro y miniordenadores, dotando a cualquier equipo de sobremesa de una oficina con la suficiente potencia informática como para satisfacer las demandas de cualquier pequeña empresa y de la mayoría de las empresas medianas.
Otra innovación fue la introducción de métodos más sencillos y ’amigables’ para el control de las operaciones de las microcomputadoras. Al sustituir el sistema operativo convencional por una interfaz gráfica de usuario, computadores como el Apple Macintosh permiten al usuario seleccionar iconos — símbolos gráficos que representan funciones de la computadora— en la pantalla, en lugar de requerir la introducción de los comandos escritos correspondientes. Hoy ya existen nuevos sistemas controlados por la voz, pudiendo los usuarios operar sus microordenadores utilizando las palabras y la sintaxis del lenguaje hablado.

4. Compatible IBM

Historia y evolución
Apple Macintosh
Apple Computer, Inc., fabricante estadounidense de ordenadores o computadoras personales con sede en Cupertino, California. Apple diseña, produce y comercializa sistemas informáticos personales para la empresa, la educación, la administraciónpública y el uso doméstico. Sus productos se venden en más de 120 países, e incluyen computadoras personales, impresoras, monitores, escáneres, software y productos para la conexión en red. Las instalaciones de fabricación, distribución y ventas están situadas en Estados Unidos, Irlanda y Singapur.
Apple fue fundada por Steven Jobs y Stephen Wozniak en 1976 para comercializar el Apple I, una placa de circuitos de computadora que habían diseñado y construido en el garaje de Jobs. Pronto abandonaron el plan de vender sólo la placa (sin monitor, teclado ni carcasa) cuando la primera ofertade ventas de Jobs dio como resultado un pedido de 50 unidades. La sociedad quedó constituida en 1977 por el carismático Jobs, el inventor Wozniak y su nuevo socio y presidente Mike Markkula. Éste reclutó a todos los demás miembros del Consejo de Administraciónde Apple, atrayendo a gerentes de otras empresas como Hewlett-Packard, Intel y National Semiconductor. En 1977 Apple lanzó el Apple II, un ordenador personal capaz de generar gráficos en color, con su propio teclado, fuente de alimentacióny ocho zócalos para dispositivos periféricos, que permitían a los usuarios amplias posibilidades de incorporar dispositivos y programas de software complementarios. En 1978 Apple trasladó su sede central a Cupertino y, en 1980, se transformó en sociedad anónima. En 1982 llegó a ser la primera empresa de ordenadores personales en alcanzar ventas anuales de 1.000 millones de dólares. En enero de 1983 Apple presentó el Lisa, un ordenador personal diseñado para la empresa que incorporaba el ratón o mousepara seleccionar comandos y controlar un cursor en pantalla. El sucesor del Lisa fue el ordenador personal Macintosh, económico y sencillo, diseñado para el usuario medio. En 1986 Apple se introdujo en el mercado ofimático con el lanzamiento de su Mac Plus y de la impresora Laserwriter, una combinación que contribuyó a la revoluciónde la autoedición. La empresa prosperó en los primeros años de la década de 1980, pero en 1985 la caída de las ventas y las rencillas internas llevaron a una reestructuración, a los primeros despidos y al abandono de Jobs (Wozniak había dimitido tiempo antes para constituir una empresa propia).
Los últimos años de la década de 1980 y los primeros de la década siguiente fueron tiempos de cambios para Apple. A finales de la década de 1980 los ingresos netos de la empresa se incrementaron sustancialmente, y en 1990 lanzó una nueva línea de ordenadores Macintosh a mitad de precio que los modelosprecedentes a fin de ampliar su base de clientes. Además de la expansión de la línea Macintosh, Apple amplió su software de sistema, el modular System 7. En la década de 1990, Apple comenzó a trabajar en software orientado a objetos y en una arquitectura de sistemas abiertos basada en RISC. La alianza que formó en octubre de 1991 con la International Business Machines Corporation (IBM) permitió la puesta en marcha de dos proyectos conjuntos de software: Kaleida, para desarrollar tecnologías multimedia, y Taligent, para crear software orientado a objetos. En 1992 Apple lanzó la línea de ordenadores Macintosh PowerBook, los primeros portátiles de la empresa, que incluían capacidades para la conexión en red y el software multimedia QuickTime.
En junio de 1993 el presidente ejecutivo de Apple, Michael Spindler, fue nombrado director ejecutivo de la empresa. John Sculley, que ocupaba dicho cargo desde 1986, quedó como presidente del Consejo de Administración. Al mes siguiente, la empresa lanzó el Newton, un dispositivo de comunicaciones portátil con varias funciones, entre ellas la capacidad de convertir texto manuscrito en texto mecanografiado. En 1994 apareció la primera familia de ordenadores PowerPC basados en microprocesadoresRISC, creados conjuntamente por Apple, IBM y Motorola. PowerPC supone un importante avance en la relación potencia y rendimiento respecto al precio. En la actualidad todos los ordenadores Apple están basados en microprocesadores PowerPC.

Historia y evolución
Los orígenes de Apple se remontan a 1976 cuando Steven P. Jobs y Stephen G. Wozniak instalaron un taller en el garaje de la casa del padre de Jobs en Cupertino, California. Jobs vendió su van Volkswagen y Wozniak vendió su calculador programable para financiar la fabricación de los primeros 50 circuitos del computador Apple I. Vislumbrando el potencial que este negocio podía representar, Jobs buscó el consejo de varios industriales de éxito. Entre ellos se encontraba A.C. "Mike" Markkula, que redactó los fundamentos de la nueva empresa y oficialmente se incorporó a ella como socio y presidente cuando la misma fue reconocida oficialmente en Enero de 1977; y Regis McKenna, propietario de la Agencia de publicidad y relaciones públicas del Silicon Valley (Valle del Silicio), ayudaron a establecer la inmediata presencia de Apple con un logotipo multicolor que atraía las miradas y que continúa siendo uno de los logotipos más admirados en el mundo. En los cuatro años siguientes la industria del computador personal prosperó rápidamente. Hacia fines de 1982, había más de 100 compañías fabricando computadores personales. En 1983 Apple ingresó a la lista de Fortune 500 (que agrupa a las compañías de mayor suceso en los Estados Unidos) y adicionalmente ganó renombre en Wall Street al designar al entonces presidente de Pepsi-Cola, John Sculley como su nuevo director ejecutivo. En 1983, Apple estableció un nuevo rumbo radical en la computación personal con la introducción de Lisa. Aunque Lisa no fue un éxito financiero, fue el fundamento que restableció a Apple como pionero técnico y estableció el estándar industrial para el software basado en una interfaz gráfica del usuario. La tecnología de Lisa fue el fundamento para el anunciado y esperado Macintosh, presentado el 24 de Enero de 1984. Con sus iconos, menús de bajada, ventanas y el popular dispositivo de señalamiento mouse, el equipo Macintosh estableció un nuevo estándar en la facilidad de uso del computador personal y continúa siéndolo hasta la fecha.
Productos y Tecnología Actualmente Apple es un compañía de multiproductos y multinegocios que continúa desarrollando sus plataformas de hardware, tecnologías de software de sistema, productos de multimedios, productos para redesy comunicaciones, periféricos y servicios para atender a las diversas y crecientes necesidades de sus clientes.
La Plataforma Macintosh La Plataforma Macintosh ahora incluye a los Macintosh Classic, la serie Macintosh II Quadra, la serie Macintosh LC para educadores, la serie Macintosh Performa para consumidores, una variedad de computadores portátiles PowerBook y la serie Power Macintosh. A la fecha, la base de computadores Macintosh instalados excede los 16 millones de unidades.
A continuación vamos relizar un repaso a lo historía de APPLE. desde el Mac (uno de los mayores éxitos de Apple) hasta el revolucionario iMac.
PowerPC y Power Macintosh En Marzo de l994, Apple introdujo el primer Power Macintosh y comenzó una importante transición para integrar la tecnología RISC en sus sistemas portátiles y sus computadores de alto rendimiento. El Power Macintosh está basado en el microprocesador PowerPC RISC desarrollado conjuntamente por Apple, IBM y Motorola. Apple vendió 1.4 millones de computadores Power Macintosh y actualizaciones durante el primer año, y hay más de 600 aplicaciones nativas disponibles de desarrolladores de software independientes. Además, Apple ofrece una variedad de Servidores de Gruposde Trabajo basados en el PowerPC de alto rendimiento y amplio almacenamiento. En Noviembre de 1994, Apple, IBM y Motorola acordaron crear una plataforma de referencia de hardware común basada en el microprocesador PowerPC y diseñado para ejecutar sistemas operativos múltiples. La plataforma será licenciada libremente y estará a disposición de otras compañías para su manufactura. El sistema operativo Macintosh (MacOS) es un líder industrial bien conocido por su facilidad de uso, su compatibilidad de enchufe y use, su soporte para gráficos complejos y su productividad. Su última entrega es el Sistema 7.5. En los años venideros, se tiene previsto que el Mac OS cuente con una nueva interfaz de usuario que se conforme aún más al modo de trabajar de los usuarios, con tecnologías mejoradas de voz-a-texto y de texto-a-voz, "agentes" que puedan anticipar las necesidades del usuario y aprender de sus hábitos de trabajo, y OpenDoc , tecnología de software componente de la plataforma cruzada de Apple, diseñado para que los usuarios puedan personalizar el entorno de trabajo de sus computadores. Además, Apple ofrecerá nuevos productos basados en el software de la tecnología de multimedios QuickTime y la tecnología de gráficos QuickDraw GX. En 1994 Apple anunció planes para licenciar el Mac OS a otros fabricantes de computadores a los efectos de expandir el mercado para esta plataforma, brindar a los usuarios el beneficio de más opciones y recursos y ofrecer a los desarrolladores una base instalada de usuarios más amplia.

Newton Apple ha reclamado su posición de líder para sus productos de tecnología Newton y MessagePad. Newton fue desarrollado como una tecnología para ser licenciada abiertamente, desarrollada en tornoa comunicaciones y para su uso en pequeños dispositivos móviles. Aun que el mercado para asistentes digitales personales todavía está en su face inicial, las investigaciones de la industria indican que la tecnología Newton mantiene un liderazgo significativo.
Redes y Comunicaciones Además de ofrecer una variedad de productos para sistemas de red y comunicaciones, Apple anunció este año su alianza con VERSIT, una iniciativa global a través del país con Apple, AT&T, IBM y Siemens que mejorará la forma de operar entre las plataformas de computadores y de comunicaciones. Al patrocinar estos estándares, Apple planea hacer del Macintosh una plataforma universal para el teléfono, los sistemas PBX y las redes de computadores.
Claris Claris, una subsidiaria de propiedadtotal de Apple, es el más grande proveedor de aplicaciones de software para Macintosh (basado en unidades despachadas) y el octavo mayor vendedor de aplicaciones de software para computadores personales (basado en ingresos).
Clientes de Apple La compañía está concentrada en entregar productos y solucionesa segmentos de clientes "clave" muy importantes. Esos mercados suman más del 80 por ciento de los negocios de Apple.
Hogar Apple es el líder en la venta de unidades para el hogar. De acuerdo a una encuestarealizada en 1994 por Dataquest, los computadores personales Macintosh de Apple cubren el 13.9 por ciento del mercado mundial de computadores para el hogar y, en una mayor proporción, el 18.7 por ciento del mercado hogareño de los Estados Unidos.
Educación De acuerdo a Dataquest, Apple mantiene un 28 por ciento del mercado mundial de la educación. De acuerdo a los Datos de la Calidad Educacional, Apple tiene una participación del 61 por ciento en el mercado de la educación K-12 en los EE.UU. Apple estima que las ventas para la educación contribuyen con un 20% a sus ventas netas.
Industria y comercioApple ocupa el tercer lugar entre los mayores proveedores de computadores personales en el mundo, de acuerdo a la investigación de Dataquest. Los ingresos de Apple en ventas a negocios y a dependencias gubernamentales suman un 45 por ciento de sus ventas totales. Apple encabeza una de las partes de más veloces en el crecimiento del mercado y los negocios de la comunicación y de la edición, estimando que alcanzó al 25 por ciento de sus ventas netas en 1994. Apple también está al frente de uno de los segmentos más prometedores del mercado de la computación móvil. Los computadores PowerBook Duo son los líderes en la categoría de los sub-portátiles, mientras que los computadores PowerBook Duo continúan estableciendo el estándar en innovaciones.
Entretenimiento Los productos Apple tienen ventajas significativas para los creadores de entretenimientos. Empezando con la integración de sonidoen los primeros Macintosh, Apple continúa ofreciendo productos de entretenimiento y servicios tales como el QuickTime Music Tool Kit I, Apple Interactive Music Track y QuickTime VR (realidad virtual) para quienes deseen crear y disfrutar de películas, videos musicales, efectos especiales, CD-ROMs y música interactiva.

Liderazgo en educación Con 53% de participación del mercado de bases instaladas, Apple es líder indiscutible de la tecnología usada en todas las escuelas públicas primarias y secundarias de EE.UU. En comparación, IBM tiene 16%, Compaq 4%, Dell y Gateway 2%. (IDC/Link, 1997.) Con 47% de participación del mercado de bases instaladas, Macintosh es la principal plataforma usada en todas las escuelas públicas primarias y secundarias. En comparación con las PCs que ejecutan Windows 95, en las escuelas públicas hay más del triple de computadores Macintosh. (Pronóstico Quinquenal, IDC/Link, 2/98.) Apple es la principal marca de computadores usados por los maestros de todas las escuelas públicas primarias y secundarias: 53% de todos los computadores que usan los maestros son Apple. (Field Research Corp.,1/98.) Con una tasa de penetración de 31%, Apple es la principal marca de servidores usados en todas las escuelas públicas primarias y secundarias. Apple también es la principal marca de servidores comprados por todas las escuelas públicas primarias y secundarias durante el año fiscal 1997. (Field Research Corp., 10/97.) Apple es la principal marca de PCs comprados por facultades de todas las universidades. (Chronicle of Higher Education, 3/98.) Apple es la principal marca de computadores portátiles comprados por los subscriptores de la revista Chronicle of Higher Education. (Chronicle of Higher Ed, 3/98). Apple es la principal plataforma usada para ejecutar todas las categorías de softwares para currículos de lectura, lenguaje, matemáticas, ciencias naturales y estudios sociales. (Education Market Research, 1997.)
Premios y distinciones recientes Apple es la principal marca en rendimiento y fiabililidad, satisfacción por servicios a los consumidores y menor número de reparaciones, de acuerdo con la principal publicación de informes a los clientes en su guía de compras de 1998. Por cuarta vez consecutiva, la revista PC World clasifica a Apple como la principal marca en fiabilidad, seguridady servicios. La rervista BYTE otorgó a Apple el premio Selecciónde los Editores por Distinción 1997 por el Mac OS 8, la versión más reciente del sistema operativo Macintosh; y por el PowerBook 3400/240, uno de los computadores móviles más rápidos del mundo. QuickTime 3.0, el software estándar para sistemas de medios digitales en Windows y Mac OS, recibió el primer premio anual Interoperabilidad de Estudio Abierto, el premio Selección de los Editores de la Asociación Nacional de Radiodifusores (NAB) 1997, el premio Hyper 1998 de la revista NewMedia, y el premio Selección del Público de la conferenciaInternet Showcase 1998. El formato de archivode Quick Time fue escogido como punto de partida del Formato de Intermedios MPEG-4 de la Organizaciónde Estándares Internacionales ( ISO). La edición limitada de Apple 20th Anniversary Macintosh y el computador portátil para estudiantes eMate recibieron el premio Mejor en su Categoría de Productos para Consumidores otorgado por la revista I.D. en su Reseña de Diseño Anual 1997. La Reseña de Diseño Anual I.D. es la mayor competencia interdisciplinaria de diseño en Estados Unidos. Apple Computer, IBM, Netscape, Oracle, Silicon Graphics y Sun Microsystems anunciaron que la Organización de Estándares Internacionales (ISO) ha adoptado la propuesta conjunta de las compañías de usar el Formato de Archivo QuickTime de Apple como punto de partida para el desarrollo de un formato unificado de almacenamiento de medios digitales para la especificación MPEG-4 (1998).

Datos de Mercado de Apple Computer, Inc.
Apple Computer, Inc.
1 Infinite Loop
Cupertino, California 95014-2084
(408) 996-1010 (Público General)
(408) 974-2042 (Analistas de la Industria y los Medios Informativos)
Página de Apple en la Red (World Wide Web): http://www.apple.com/

Vendido:
En el mercado no inscrito y listado en el Mercado Nacional NASDAQ bajo el símbolo AAPL, en la Bolsa de Valoresde Tokio bajo el símbolo APPLE y en la Bolsa de Valores de Frankfurt bajo el símbolo APCD.

Ventas del Trimestre:
Primer Trimestre de 1999 $ 1,710 millones de dólares
Ingresos Netos del Trimestre:
Primer Trimestre de 1999 $152 millones de dólares
Incorporado:
El 3 de enero de 1977.
Empleados:
Aproximadamente 8,788 a nivel mundial (en el primer trimestre de 1999).
Ventas hasta la fecha:
Más de 31 millones de sistemas Macintosh vendidos hasta la fecha.
Perfil de la Empresa:
Apple Computer, Inc., inició la revolución de las computadoras personales en los años 70 con su Apple II y re-inventó las computadoras personales en los años 80 con el Macintosh. Actualmente, Apple está comprometido a su misión original - traer las mejores computadoras y apoyar a estudiantes, educadores diseñadores, científicos, ingenieros, personas de negocios y consumidores en más de 140 países al rededor del mundo.

Investigación y Desarrollo:
En el año fiscal 1998, Apple invirtió aproximadamente el cinco por ciento de sus ventas anuales en investigación y desarrollo. Los centros de Investigación y Desarrollo están situados en Cork, Irlanda; Cupertino, California; y Tokio, Japón.

Fabricación:
Apple posee centros de fabricación en los Estados Unidos, Irlanda y Singapur. Los centros de distribución están situados en los Estados Unidos, Europa, Canadá, Australia, Singapur y Japón.

 

5. Clasificación de los ordenadores.

Según el microprocesador
En la actualidad se utilizan dos tipos principales de ordenadores: analógicos y digitales. Sin embargo, el término ordenador o computadora suele utilizarse para referirse exclusivamente al tipo digital. Los ordenadores analógicos aprovechan la similitud matemática entre las interrelaciones físicas de determinados problemasy emplean circuitos electrónicos o hidráulicos para simular el problema físico. Los ordenadores digitales resuelven los problemas realizando cálculos y tratando cada número dígito por dígito.
Las instalaciones que contienen elementos de ordenadores digitales y analógicos se denominan ordenadores híbridos. Por lo general se utilizan para problemas en los que hay que calcular grandes cantidades de ecuaciones complejas, conocidas como integrales de tiempo. En un ordenador digital también pueden introducirse datos en forma analógica mediante un convertidor analógico digital, y viceversa (convertidor digital a analógico).

Ordenadores analógicos
El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculoanalógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.

Ordenadores digitales
Todo lo que hace un ordenador digital se basa en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en megahercios, o millones de ciclos por segundo. Un ordenador con una velocidad de reloj de 100 MHz, velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de ciclos por segundo.
La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo. Un grupode ocho bits se denomina byte y cada uno contiene 256 configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un caráctero un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el número decimal 210 (véase Sistemas numéricos), o bien estar indicando al ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip de memoria. El desarrollo de procesadorescapaces de manejar simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que avanza el desarrollo de los ordenadores digitales modernos.

Según la tecnología utilizada.
Ordenadores de Primera Generación

 

Los primeros ordenadores fueron electromecánicos (basándose en relés). Aunque Jorge Stibz construyó en los laboratorios Bell una máquina programable que trabajaba con números complejos: El Complex Calculator (1949), se considera que el primer ordenador fue el Z3 (1941) del alemán Konrad Zuse. Le siguió el Mark I (1944) de Howard Aiken, construido en la Universidadde Hardward con la colaboración de IBM. Pesaba 5 toneladas y tenía más de 750000 piezas y 800 km de cable.
Durante los años 50 Aiken trabajó activamente con investigadores españoles del Instituto de Electricidad y Automática del CSIC, fundado por Torres Quevedo.

 

La sustitución de los relés por tubos de vacío dio lugar a la Primera Generación de ordenadores electrónicos. El primero fue el ENIAC (Electronic Numerical Integrator and Calculator) de los estadounidenses John Eckert y John Mauchly (1945) que se aplicó en el cálculo de las trayectorias de proyectiles. Acabada la guerrase utilizó para calcular el número pi con unos 2000 decimales, y para hacer los primeros diseños de la bomba de hidrógeno. Tenía 18000 tubos y pesaba 30000 kg. Era 300 veces más rápido que el Mark I y sólo costaba 400000 dólares frente a los 5 millones del Mark Y. Sin embargo sólo tenía 20 registrosde memoria, de 10 dígitos decimales; estaba pues muy lejos de cualquier ordenador personal de nuestros días.

 

Antes del ENIAC se crearon otras máquinas electrónicas; un pequeño calculador (1940) del físico John Atanasoff que no era automático ni programable, y varias máquinas británicas para descifrar los mensajes del ejército alemán, por ejemplo el Colossus (1943). La batalla legal por la palabra "Computer" la ganó en el año 1973 póstumamente Atanasoff. Echerk y Mauchly crearon la Electronic Control Co, que en 1950 fue adquirida por la Remington-Rand, allí diseñaron el primer ordenador electrónico de gestión, el UNIVAC (UNIversal Automatic Computer). El aparato tuvo gran éxito y copó el mercado, que hasta entonces había sido feudo de IBM. En respuesta IBM creó una serie de ordenadores excelentes, como el IBM 705 en 1952, desbancando a Univac, mediante una publicidad agresiva. El UNIVAC II no salió hasta 1958, cuando IBM ya había recobrado el liderato. De poco les había servido una fusión con Sperry Giroscope Co (1955) para crear la Sperry Rand Corporation.
En 1945 mientras se construía el ENIAC, se incorporó al equipo el prestigioso matemático húngaro Johannes Von Neumann (1903-1957), el cual propuso que los programas se almacenasen en la memoriacomo si fuesen datos, y no en una memoria especial, como se hacía desde el diseño de Babbage, equipo que se iba a llamar EDVAC. Los informes fueron tan precisos que otros se adelantaron y así el primer ordenador tipo Von Neumann fue el EDSAC (Electronic Delay Storage Automatic Calculator) construido por Mauricio Wilkes en la Universidad de Cambridge (1949).
De esta generación sólo llegó uno a España, un IBM 650, contratado por RENFE en 1958.

 

Ordenadores de Segunda Generación
Esta generación surgió en 1958 con la sustitución de los tubos de vacío por los transistores.Los primeros ordenadores transistorizados fueron dos pequeños modelos de NCR y RCA. Los primeros de IBM y Sperry Rand fueron el IBM 7070 (1960) y el UNIVAC 1107 (1962), respectivamente. La europea Bull comercializó los Gamma 30 y 60. Durante esta época se introdujeron las unidades de cinta y discos magnéticos, y las lectoras de tarjetas perforadas e impresoras de alta velocidad. Así mismo aparecieron algunos lenguajes de programación, el COBOL (1959), el Algol (1960) y el LISP (1962); el FORTRAN fue creado en 1954 para IBM, por John Backus.
El segundo ordenador instalado en España, y primero de la segunda generación llegó a España en 1959, era un UNIVAC UCT, contratado por la Junta de Energía Nuclear. La era de la informática llega realmente a nuestro país en 1961, en la Feria de Muestras de Barcelona, se presenta un IBM 1401.
Los primeros ejemplares se instalaron en 1962, Sevillana de Electricidad (empresa del grupo ENDESA), Galería Preciados (Actualmente propiedad de El Corte Inglés, gracias a la mala gestión de Ruiz Mateos) y Ministerio de Hacienda). En 1967 IBM obsequió a la Universidad Complutense de Madridcon un patente ordenador científico, el IBM 7094.

Ordenadores de tercera generación
El elemento característico de esta generación es el circuito integrado, que se incorporó a los ordenadores a mediados de los años sesenta. Destaca la familia IBM 360 (1964) y sobre todo la IBM 370 (1970), el producto más famoso de esta generación. En cuanto a Sperry Rand, introdujo la famosa serie 1100 en 1965.
Durante esta época surgieron la multiplicación y el tiempo compartido. También tuvo lugar la denominada crisis del "software" Se intentó la creación de lenguajes universales, el PL/1 (1964) y se estandarizaron los lenguajes más utilizados: Fortran (1966), Algol (1968) y el COBOL (1970). También datan de esta generación el BASIC (1964) y el Pascal (1971)
En España durante el trienio 1964-67 las tabuladoras fueron sustituidas masivamente por ordenadores, y prácticamente desaparecieron al entrar en la década de los 70. En 1970 el parque de ordenadores e distribuía así: Madrid 50%, Barcelona 34% y el resto lo tenían los grandes bancosdel norte y algunas cajas de ahorros.

 

Los microordenadores surgieron a finales de los 60, como elemento de transición entre las generaciones tercera y cuarta, con los circuitos integrados de media escala (MSI). Sus destinatarios fueron grandes y medianas empresas. Disponían de varias terminales y se organizaban en redes. Destaca la familia PDP 11 de Digital Equipment Corporation.

Ordenadores de Cuarta Generación
El elemento que provocó el nacimiento de esta generación se considera habitualmente, aunque con cierta controversia, el microprocesador Intel 4004, desarrollado por Intel en 1971. El primer ordenador personal en EE.UU. fue el Altair 8800 (1974) de la desaparecida empresa MITS. Microsofttuvo el acierto de construir un intérprete BASIC para él, MITS sobrevivió un par de años, pero Microsoft inició un despegue imparable, dando un gran salto al facilitar a IBM el sistema operativo MS-DOS para el PC. Las imágenes siguientes muestran microprocesadores bajo distintas escalas de ampliación.

En 1971 apareció el PET 2001 de Commodore, empresa recientemente absorbida por la holandesa Tulip, el TRS 80 de Radio Shack y el Apple II, fabricado en un garaje por dos jóvenes norteamericanos: Steven Jobs y Stephen Wozniak. A partir de 1980 se produce una eclosión de marcas. Destaca el Sinclair ZX80, precedente del ZX81 y del Spectrum, fabricante absorbido por Amstrad, que consiguió gran éxito vendiendo productos de muy baja calidad fabricados en Corea. Amstrad, como es lógico, abandonó la informática, aunque sigue con equipos musicales y antenas de televisión, de muy baja calidad. En Agosto de 1981 se presentó el IBM PC, que ha dado lugar a ña difusión masiva de la ifnormática personal.

 

Sin embargo la microinformática, contrariamente a lo que se cree, no comenzó en EE.UU, pues en el año 1973 se creó en España, con la invención del primer ordenador personal, el Kentelek 8, a cargo de la empresa Distesa (de la conocida editorial Anaya), el diseñador fue Manuel Puigbó Rocafort. Jordi Ustrell diseño posteriormente otro ordenador personal par la empresa catalana EINA.
Como se ha visto, desde el ábaco hasta las primeras calculadoras mecánicas pasaron 12 siglos, desde estas últimas al primer ordenador transcurrieron 2 siglos y desde el Mark I al primer microordenador pasaron 28 años. Desde entonces la velocidad de desarrollo es difícil de imaginar.

Ordenadores de Quinta Generación
En Octubre de 1981 el mundo de los ordenadores se vio sacudido por el anuncio hecho en Japón, de una iniciativa de investigación y desarrollo orientada a producir una nueva generación de ordenadores en la primera década de los años de los 90, a los que se les dio el nombre de ordenadores de quinta generación.
Los ordenadores de esta generación deben de ser capaces de resolver problemas muy complicados, algunos de los cuales requieren toda la experiencia, capacidad de razonamiento e inteligencia de las personas para ser resueltos. Deben de ser capaces de trabajar con grandes subconjuntos de los lenguajes naturales y estar asentados en grandes bases de conocimientos. A pesar de su complejidad los ordenadores de esta generación se están diseñando para ser manejados por personas no expertas en informática.
Para conseguir estos fines tan ambiciosos estos equipos no tendrán un único procesador, sino un gran número agrupado en tres subsistemas fundamentales: un sistema inteligente, un mecanismo de inferencia y una interfaz de usuario inteligente.
Los avances se sitúan en materiade teleinformática (comunicaciones), y un todavía progresivo disminución de tamaño y coste del equipo, así como de técnicas de programación y desarrollo de Inteligencia Artificial, y de control de procesos (robotización).
Actualmente no están desarrollados plenamente estos ordenadores, se trabaja en distintos países, cuyos programas de investigación más importantes son los siguientes:

  • EE.UU.:Proyectos DARPA y MCC
  • Unión Europea: Proyecto Sprit
  • Reino Unido: Proyecto Alvey
  • Japón: Proyecto ICOT

Según su propósito y su ámbito de uso
Esta clasificación se realiza en función del ámbito de aplicabilidad para el cual cada máquina concreta ha sido diseñada y comercializada.
Ordenador de bolsillo:
Verdadero sustituto, con tremenda ganancia de precisión, de la antigua regla de cálculo.
Ordenador doméstico:
Pensado para juegos, aprendizaje asistido por ordenador de diversas materias, gestión de agendas, pequeñas contabilidades domésticas, etc.
Ordenador profesional:
Diseñado para satisfacer las necesidades de proceso de datos de una amplia gama de profesionales y también de pequeñas oficinas técnicas o empresas familiares.
Ordenador departamental:
Ordenador con capacidad local para abordar con autosuficiencia la mayoría de necesidades del departamento, pero vinculado a un ordenador de mayor potencia y capacidad de archivospara aquellos procesos que requieren una mayor potencia en el procesador.
Ordenador central:
Ordenador central de la empresa al cual recurren todos los usuarios de la empresa cuando la capacidad local es desbordada.
Red de ordenadores:
Conjunto de ordenadores vinculados entre sí para ofrecer un mismo tipo de servicioa todo un conjunto muy amplio de usuarios de forma repartida para evitar sobrecargas y evitar que la caída de un ordenador único central represente la caída de todo el servicio.

Según el tamaño

 

Superordenadores:
Pueden ser utilizados simultáneamente por muchos usuarios, en cálculos científicos o de simulación Su coste es por lo general es de miles de millones de pesetas y su velocidad es enorme.
Mainframes o grandes ordenadores:
Son equipos dedicados principalmente a las gestión, por lo que admiten gran cantidad de trabajos simultáneos, como por ejemplo controlar una red de terminales en las distintas sucursales de una empresa, o una red de cajeros automáticos de un Banco. La imagen muestra un ordenador Hitachi.
Superminiordenadores:
Son equipos en principio dedicados a tareas departamentales dentro de un organismo o empresa. Su capacidad principal es la de soportar gran cantidad de terminales, pues están orientados a la gestión. Dado su bajo precio en comparación con los grandes ordenadores, están cogiendo cuota de mercado frente a ellos.
Miniordenadores:
Son equipos que admiten unas cuantas terminales. Están orientados a la gestión. Actualmente son poco competitivos frente a los microordenadores de gama alta.
Estaciones de trabajo ("Workstations"):
Son equipos monousuario, dotados de grandes capacidades de cálculo y con posibilidades gráficas muy elevadas. Se utilizan principalmente en la investigación científicay en aplicaciones técnicas, como por ejemplo la simulación. Su precio está bajando y actualmente son competitivas con los microordenadores de gama alta. Estos equipos no sirven para aplicaciones de gestión. La imagen muestra una estación de trabajo Hewlett Packard.

Ordenadores personales o microordenadores:
Son equipos ampliamente difundidos, de precio muy reducido y de prestaciones suficientes no sólo para el nivel personal, sino
para pequeñas empresas. Actualmente se están conectando entre sí, formando grandes redes lo cual los hace adecuados para entornos más exigentes, sustituyendo en muchos casos a los miniordenadores.
Nanoordenadores:
A esta categoría pertenecen equipos con muy pocas prestaciones y orientados principalmente al entretenimiento doméstico. Hasta hace algunos años tuvieron amplio uso, aunque actualmente se están difundiendo ampliamente como consolas de videojuegos.

 

¿Y esta publicidad? Puedes eliminarla si quieres.

Def. en informatica

PCI

(Peripheral Component Interface) Término ingles que significa Conexión de Componentes Periféricos.

Se trata de un tipo de ranura de conexión para tarjetas de amplicación que se encuentran en la placa base del ordenador.

IDE

(Integrated Drive Electronics) Electrónica de unidades integradas. Disco duro que contiene un controlador incorporado. Las unidades IDE se utilizan ampliamente en computadores personales y su capacidad varía de 40MB a 1GB.

AGP

(Accelerated Graphics Port). Puerto PCI diseñado especialmente para potenciar la tecnologia 3D aprovechando todas las prestaciones que ofrece el Pentium II.Con un canal exclusivo para que la tarjeta gráfica acceda a la memoria.

RAMDAC

conversor analógico-digital (DAC) de la memoria RAM, empleado en las tarjetas gráficas para transformar la señal digital con que trabaja el ordenador en una salida analógica que pueda entender el monitor.

MODEM

Aunque el uso de la palabra es muy común como tal, en realidad se trata de unas siglas: MOdulador-DEModulador. Es un acoplador que une el ordenador con una red telefónica u otra red de transmisión de datos. En el proceso de emisión modula, de forma binaria, una señal y, en la recepción, demodula la señal transmitida y reconstruye la original.

RAM

(RAM: Random Access Memory). Contiene los programas y los datos con los que el ordenador está trabajando en un momento determinado. Se denomina memoria de acceso aleatoria, pero en realidad es ésta una denominación un tanto confusa. La RAM es una memoria de acceso directo y de carácter efímero, puesto que su contenido se borra cuando se apaga el ordenador.

ROM

(ROM: Read Only Memory). Contiene programas que son piezas fundamentales del sistema y que no pueden ser borrados ni por el usuario ni por la propia máquina. Es una memoria de las denominadas de acceso directo, es decir, cuyos elementos son accesibles del mismo modo en su totalidad. Es una especie de memoria inerte en la que no es posible escribir nada y que contiene el programa de puesta en marcha, escrito en lenguaje máquina, el soft de base, un lenguaje, etcétera.

 

USB

 

(Universal Serial Bus). Bus serie universal. La característica principal de este bus reside en que los periféricos pueden conectarse y desconectarse con el equipo en marcha, configurándose de forma automática.
Conector externo que llega a transferencias de 12 millones de bits por segundo. Totalmente PnP, sustituirá al puerto serie y paralelo, gracias a la posibilidad de conectar 127 dispositivos.

ADSL

(Asymmetrix Digital Suscriber Line). Línea asimétrica de abonado digital. Sistema de trasmisión digital sobre hilo de cobre o fibra óptica, que por sus características puede alcanzar velocidades muy superiores a las actuales, gracias al aumento y división del ancho de banda.

RTB

Red Telefónica Básica,es un interfáz que permite la conexión a través de líneas telefónicas básicas. Los routers con esta interfaz proporcionan conectividad a internet para redes pequeñas con un ancho de banda de 56K.

CPU

La unidad central de procesamiento o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados.

FIREWALL

Un cortafuegos (firewall en inglés) es una parte de un sistema o una red que está diseñada para bloquear el acceso no autorizado, permitiendo al mismo tiempo comunicaciones autorizadas. Se trata de un dispositivo o conjunto de dispositivos configurados para permitir, limitar, cifrar, descifrar, el tráfico entre los diferentes ámbitos sobre la base de un conjunto de normas y otros criterios.

TARJETAS GRAFICAS

GPU

La GPU, —acrónimo de «graphics processing unit», que significa «unidad de procesamiento gráfico»— es un procesador (como la CPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta. Tres de las más importantes de dichas características son la frecuencia de reloj del núcleo, que en 2010 oscilaba entre 500 MHz en las tarjetas de gama baja y 850 MHz en las de gama alta, el numero de procesadores shaders y el número de pipelines (vertex y fragment shaders), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles.

Memoria RAM Gráfica

Tecnología

Frecuencia (MHz)

Ancho de banda (GB/s)

GDDR

166 - 950

1,2 - 30,4

GDDR2

533 - 1000

8,5 - 16

GDDR3

700 - 1700

5,6 - 54,4

GDDR4

1600 - 1800

64 - 86,4

GDDR5

3200 - 7000

24 - 448

Según la tarjeta gráfica está integrada en la placa base (normalmente de bajas prestaciones) o no, utilizará la memoria RAM propia del ordenador o dispondrá de una dedicada. Dicha memoria es la memoria de vídeo o VRAM. Su tamaño oscila actualmente entre 256 MB y 4 GB. La memoria empleada en 2010 estaba basada en tecnología DDR, destacando GDDR2, GDDR3,GDDR4 y GDDR5, en especial GDDR2, GDDR3 y GDDR5. La frecuencia de reloj de la memoria se encontraba entre 400 MHz y 4,5 GHz (efectivos).

Samsung ha conseguido desarrollar memorias GDDR5 a 7GHZ, gracias al proceso de reducción de 50 nm, permitiendo un gran ancho de banda en buses muy pequeños (incluso de 64 bits)

Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer, encargado de gestionar las coordenadas de profundidad de las imágenes en los gráficos 3D.

 RAMDAC

El RAMDAC es un conversor de señal digital a analógico de memoria RAM. Se encarga de transformar las señales digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor. Según el número de bits que maneje a la vez y la velocidad con que lo haga, el conversor será capaz de dar soporte a diferentes velocidades de refresco del monitor (se recomienda trabajar a partir de 75 Hz, nunca con menos de 60). Dada la creciente popularidad de los monitores digitales el RAMDAC está quedando obsoleto, puesto que no es necesaria la conversión analógica si bien es cierto que muchos conservan conexión VGA por compatibilidad.

Funcionamiento de las tarjetas gráficas 2D

 

Las tarjetas gráficas tradicionales 2D son capaces de procesar imágenes 3D por emulación por software, aunque con resultados de baja calidad y con una desesperante lentitud, de modo que el cálculo y la generación de las imágenes en 3D (RENDER) las realiza el propio procesador, estando por tanto este demasiado ocupado para realizar otras operaciones, ralentizando todo el equipo. De ahí la aparición de los nuevos procesadores gráficos con capacidad de procesar y renderizar por hardware (implementando las instrucciones en el chip) imágenes 3D con una más que aceptable calidad y rapidez.

Funcionamiento de las tarjetas gráficas 3D

Debemos establecer dos tipos de tarjetas gráficas 3D:

* Tarjetas gráficas 2D/3D, que integran procesadores para imágenes tanto 2D como 3D (a veces con un procesador diferente para cada tipo de imagen, aunque éstas suelen tener un coste muy elevado), como el S3 Virge, el NVidia Riva 128, el ATI Rage, el 3DLabs Permedia 2, el Trident 9750, etc.
* Tarjetas gráficas 3D que integran procesadores para imágenes 3D y que deben coexistir en nuestro equipo con una tarjeta gráfica 2D o 2D/3D a la que se conectan mediante un cable externo. Estas tarjetas están pensadas para complementar tarjetas gráficas de cierta antigüedad sin prestaciones 3D o para los amantes de los juegos de última generación. El representante más destacado de este tipo de tarjetas es 3Dfx con sus chipsets Voodoo y Voodoo 2, sin olvidarnos del PowerVR de NEC/Videologic

La resolución y el número de colores

En el contexto que nos ocupa, la resolución es el número de puntos que es capaz de presentar por pantalla una tarjeta de vídeo, tanto en horizontal como en vertical. Así, "800x600" significa que la imagen está formada por 600 rectas horizontales de 800 puntos cada una. Para que nos hagamos una idea, un televisor de cualquier tamaño tiene una resolución equivalente de 800x625 puntos.

En cuanto al número de colores, son los que la tarjeta puede presentar a la vez por pantalla. Así, aunque las tarjetas EGA sólo representan 16 colores a la vez, los eligen de una paleta de 64 colores.

La combinación de estos dos parámetros se denomina modo de vídeo; están estrechamente relacionados: a mayor resolución, menor número de coloresrepresentables, y a la inversa. En tarjetas modernas (SVGA y superiores), lo que las une es la cantidad de memoria de vídeo (la que está presente en la tarjeta, no la memoria general o RAM).

Cabe destacar que elmodo de vídeo elegido debe ser soportado por el monitor, ya que si no éste podría dañarse gravemente.Por otra parte, los modos de resolución para gráficos en 3D (fundamente juegos) suelen necesitar bastante más memoria, en general unas 3 veces más.

TIPOS DE MEMORIAS

  • MDA: Presentaba texto monocromo.

  • Hércules: tarjeta gráfica monocroma.

  • CGA:  La primera en presentar gráficos a color (4 colores).

  • EGA: Tarjeta que superó a la anterior (16 colores).

  • VGA: Fue la tarjeta estándar ya que tenía varios modos de vídeo. Permite 640 x 480 a 16/256 colores.

  • SVGA, SuperVGA, mejor que la VGA. Soporta resoluciones de 640 x 480, 800 x 600, 1024 x 768, 1280 x 1024 y 1600 x 1280 y colores 16, 256, 32 K, 64 K y 16 M (siempre según memoria en tarjeta). Es la más usada.

  • TIPOS DE MEMORIAS RAM

    SDR SDRAM

    Artículo principal: SDRAM

    Memoria síncrona, con tiempos de acceso de entre 25 y 10 ns y que se presentan en módulos DIMM de 168 contactos. Fue utilizada en los Pentium II y en los Pentium III , así como en los AMD K6, AMD Athlon K7 y Duron. Está muy extendida la creencia de que se llama SDRAM a secas, y que la denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no es así, simplemente se extendió muy rápido la denominación incorrecta. El nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los tipos disponibles son:

    • PC100: SDR SDRAM, funciona a un máx de 100 MHz.
    • PC133: SDR SDRAM, funciona a un máx de 133 MHz.

    DDR SDRAM

    Artículo principal: DDR SDRAM

    Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos. Los tipos disponibles son:

    • PC2100 o DDR 266: funciona a un máx de 133 MHz.
    • PC2700 o DDR 333: funciona a un máx de 166 MHz.
    • PC3200 o DDR 400: funciona a un máx de 200 MHz.

    DDR2 SDRAM

    SDRAM DDR2.
    Artículo principal: DDR2

    Las memorias DDR 2 son una mejora de las memorias DDR (Double Data Rate), que permiten que los búferes de entrada/salida trabajen al doble de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias. Se presentan en módulos DIMM de 240 contactos. Los tipos disponibles son:

    • PC2-4200 o DDR2-533: funciona a un máx de 533 MHz.
    • PC2-5300 o DDR2-667: funciona a un máx de 667 MHz.
    • PC2-6400 o DDR2-800: funciona a un máx de 800 MHz.
    • PC2-8600 o DDR2-1066: funciona a un máx de 1066 MHz.

    DDR3 SDRAM

    Artículo principal: DDR3

    Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan significantes mejoras en el rendimiento en niveles de bajo voltaje, lo que lleva consigo una disminución del gasto global de consumo. Los módulos DIMM DDR 3 tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente incompatibles, debido a una ubicación diferente de la muesca. Los tipos disponibles son:

    • PC3-8600 o DDR3-1066: funciona a un máx de 1066 MHz.
    • PC3-10600 o DDR3-1333: funciona a un máx de 1333 MHz.
    • PC3-12800 o DDR3-1600: funciona a un máx de 1600 MHz.

    RDRAM (Rambus DRAM)

    Artículo principal: RDRAM

    Memoria de gama alta basada en un protocolo propietario creado por la empresa Rambus, lo cual obliga a sus compradores a pagar regalías en concepto de uso. Esto ha hecho que el mercado se decante por la tecnología DDR, libre de patentes, excepto algunos servidores de grandes prestaciones (Cray) y la consola PlayStation 3. La RDRAM se presenta en módulos RIMM de 184 contactos.

    Microprocesadores

    • 1971: MICROPROCESADOR 4004

    El 4004 fue el primer microprocesador de Intel. Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para integrar inteligencia en objetos inanimados así como la computadora personal.

    • 1972: MICROPROCESADOR i8008

    Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.

    • 1974: MICROPROCESADOR 8080

    Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de $395. En un periodo de pocos meses, vendió decenas de miles de estas computadoras personales.

    • 1978: MICROPROCESADOR 8086-8088

    Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500 mejores compañías de la prestigiosa revista Fortune, y la revista nombró la compañía como uno de Los triunfos comerciales de los sesenta.

    • 1982: MICROPROCESADOR 286

    El 286, también conocido como el 80286, era el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de Intel de microprocesadores. Luego de 6 años de su introducción, había un estimado de 15 millones de 286 basados en computadoras personales instalados alrededor del mundo.

    • 1985: EL MICROPROCESADOR INTEL 386

    El procesador Intel 386 ofreció 275 000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, poseía capacidad multitarea, que significa que podría ejecutar múltiples programas al mismo tiempo y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que emplearan memoria virtual.

    • 1989: EL DX CPU MICROPROCESADOR INTEL 486

    La generación 486 realmente significó que el usuario contaba con una computadora con muchas opciones avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma flotante y un caché unificado integrados en el propio circuito integrado del microprocesador y una unidad de interfaz de bus mejorada. Estas mejoras hacen que los i486 sean el doble de rápidos que un i386 e i387 a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático integrado, el cual acelera las tareas del micro, porque ofrece la ventaja de que las operaciones matemáticas complejas son realizadas (por el coprocesador) de manera independiente al funcionamiento del procesador central (CPU).

    • 1991: AMD AMx86

    Procesadores lanzados por AMD 100% compatible con los códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores de Intel a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586

    • 1993: PROCESADOR DE PENTIUM

    El procesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, poseía un bus de datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no únicamente brindaban al usuario un mejor manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que se ofrecían en velocidades de hasta 233 MHz, incluyendo una versión de 200 MHz y la más básica proporcionaba unos 166 MHz de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.

    • 1995: PROCESADOR PENTIUM PROFESIONAL

    Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña con una arquitectura de 32 bits, su uso en servidores, los programas y aplicaciones para estaciones de trabajo (redes) impulsan rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5 millones de transistores.

    • 1996: AMD K5

    Habiendo abandonado los clones se fabricada AMD de tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora que transforma todos los comandos x86 de la aplicación en comandos RISC. Este principio se usa hasta hoy en todos los CPUs x86. En todos los aspectos era superior el K5 al Pentium, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando sin éxito y fué retrasado 1 año de su salida, a razón de éste retraso, sus frecuencias de trabajo eran inferiores a la competencia y por tanto, los fabricantes de PC dieron por hecho que era peor.

    • 1997: PROCESADOR PENTIUM II

    El procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, pueden revisar y pueden compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica, el enviar video a través de las líneas normales del teléfono mediante el Internet se convierte en algo cotidiano.

    • 1996: AMD K6 Y AMD K6-2

    Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a Intel en el terreno de los Pentium MMX, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador que casi se pone a la altura del mismísimo Pentium II por un precio muy inferior a sus análogos. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los mas de 500 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándar.

    Más adelante lanzó una mejora de los K6, los K6-2 a 250 nanómetros, para seguir compitiendo con lso Pentium II, siéndo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introducen un juego de instrucciones SIMD denominado 3DNow!

    • 1998: EL PROCESADOR PENTIUM II XEON

    Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo (workstations) y servidores que utilizan aplicaciones comerciales exigentes como servicios de Internet, almacenaje de datos corporativo, creaciones digitales y otros. Pueden configurarse sistemas basados en el procesador para integrar de cuatro o ocho procesadores y más allá de este número.

    • 1999: EL PROCESADOR CELERON

    Continuando la estrategia de Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Intel Celeron es el nombre que lleva la línea de procesadores de bajo coste de Intel. El objetivo era poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.

    • 1999: AMD ATHLON K7 (CLASSIC Y THUNDERBIRD)

    Procesador compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmente el sistema de coma flotante (ahora son 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le aumentó la memoria caché de primer nivel (L1) a 128 KB (64 KB para datos y 64 KB para instrucciones). Además incluye 512 KB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento

    El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma velocidad de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.

    • 1999: PROCESADOR PENTIUM III

    El procesador Pentium III ofrece 70 nuevas instrucciones (Internet Streaming, las extensiones de SIMD las cuales refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del desempeño en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas (llenas de gráficas) como las de los museos online, tiendas virtuales y transmitir archivos video de alta calidad. El procesador incorpora 9,5 millones de transistores, y se introdujo usando en él la tecnología 250 nanómetros.

    • 1999: EL PROCESADOR PENTIUM III XEON

    El procesador Pentium III Xeon amplia las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidor y añade una actuación mejorada en las aplicaciones del comercio electrónico y la informática comercial avanzada. Los procesadores incorporan tecnología que refuerzan los multimedios y las aplicaciones de video. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando la actuación significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador.

    • 2000: PENTIUM 4

    El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro. Se estreno la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.

    • 2001: ATHLON XP

    Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, por eso sacó el Athlon XP. Compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird podemos mencionar la prerrecuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.

    • 2004: PENTIUM 4 (PRESCOTT)

    A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada ’Prescott’. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MB o 2 MB de caché L2 y 16 KB de caché L1 (el doble que los Northwood), Prevención de Ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.

    • 2004: ATHLON 64

    El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool’n’Quiet,. Cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo y su tensión se reducen.

    • 2006: INTEL CORE Y CORE 2 DUO

    Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.

    • 2007: AMD PHENOM

    Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto de la propia latencia de la RAM), además de compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.

    • 2008: INTEL CORE NEHALEM

    Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.

    • 2008: AMD PHENOM II Y ATHLON II

    Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MB del Phenom original a 6 MB.

    • 2010: INTEL CORE SANDY BRIDGE

    Los próximos procesadores de Intel de la familia core

    • 2011: AMD BULLDOZER

    Los próximos procesadores de AMD de la familia Fusion

    ¿Y esta publicidad? Puedes eliminarla si quieres

    El esqueleto humano

    El esqueleto humano

    El esqueleto humano es el conjunto total y organizado de piezas óseas que proporciona al cuerpo humano una firme estructura multifuncional (locomoción, protección, contención, sustento, etc.). A excepción del hueso hioides —que se halla separado del esqueleto—, todos los huesos están articulados entre sí formando un continuum, soportados por estructuras conectivas complementarias como ligamentos, tendones, músculos y cartílagos.

    El esqueleto de un ser humano adulto tiene, aproximadamente, 206 huesos, sin contar las piezas dentarias, los huesos suturales o wormianoscráneo) y los huesos sesamoideos. El esqueleto humano participa con el 12 por ciento del peso total del cuerpo, así una persona que pesa 75 kilogramos, 9 kilogramos de ellos son por su esqueleto.

    El conjunto organizado de huesos —u órganos esqueléticos— conforma el sistema esquelético, el cual concurre con otros sistemas orgánicos (sistema nervioso, sistema articular y sistema muscular) para formar el aparato locomotor.

    El esqueleto óseo es una estructura propia de los vertebrados. En Biología, un esqueleto es toda estructura rígida o semirrígida que da sostén y proporciona la morfología básica del cuerpo, así, algunos cartílagos faciales (nasal, auricular, etc.) debieran ser considerados también formando parte del esqueleto.

     

     

    FABRICACIÓN DE PLÁSTICOS

    El inventor del primer plástico se debe a Leo Hendrik Baekeland que descubrió en 1850 un material plástico al que llamó baquelita, la primera de una serie de resinas sintéticas que revolucionaron la tecnología moderna iniciando la «era del plástico». A lo largo del siglo xx el uso del plástico se hizo extremadamente popular y llegó a sustituir a otros materiales tanto en el ámbito doméstico, como industrial y comercial.

    Obtención y fabricación del plástico.  La fabricación de los plásticos y sus manufacturados implica cuatro pasos básicos: obtención de las materias primas, síntesis del polímero básico, obtención del polímero como un producto utilizable industrialmente y moldeo o deformación del plástico hasta su forma definitiva.

     

    Materias primas. En un principio, la mayoría de los plásticos se fabricaban a partir de resinas de origen vegetal, como la celulosa (del algodón), el furfural (de la cáscara de la avena), aceites de semillas y derivados del almidón o del carbón. La caseína de la leche era uno de los materiales no vegetales utilizados. A pesar de que la producción del nailon se basaba originalmente en el carbón, el aire y el agua, y de que el nailon 11 se fabrica todavía con semillas de ricino, la mayoría de los plásticos se elaboran hoy con derivados del petróleo. Las materias primas derivadas del petróleo son tan baratas como abundantes. No obstante, dado que las existencias mundiales de petróleo tienen un límite, se están investigando otras fuentes de materias primas, como la gasificación del carbón.

    Síntesis del polímero. El primer paso en la fabricación de un plástico es la polimerización. Como se comentaba anteriormente, los dos métodos básicos de polimerización son las reacciones de condensación y las de adición. Estos métodos pueden llevarse a cabo de varias maneras. En la polimerización en masa se polimeriza sólo el monómero, por lo general en una fase gaseosa o líquida, si bien se realizan también algunas polimerizaciones en estado sólido. Mediante la polimerización en disolución se forma una emulsión que se coagula seguidamente. En la polimerización por interfase los monómeros se disuelven en dos líquidos inmiscibles y la polimerización tiene lugar en la interfase entre los dos líquidos.

    Aditivos. Con frecuencia se utilizan aditivos químicos para conseguir una propiedad determinada. Por ejemplo, los antioxidantes protegen el polímero de degradaciones químicas causadas por el oxígeno o el ozono. De una forma parecida, los estabilizadores lo protegen de la intemperie. Los plastificantes producen un polímero más flexible, los lubricantes reducen la fricción y los pigmentos colorean los plásticos. Algunas sustancias ignífugas y antiestáticas se utilizan también como aditivos. Muchos plásticos se fabrican en forma de material compuesto, lo que implica la adición de algún material de refuerzo (normalmente fibras de vidrio o de carbono) a la matriz de la resina plástica. Los materiales compuestos tienen la resistencia y la estabilidad de los metales, pero por lo general son más ligeros. Las espumas plásticas, compuestas de plástico y gas, proporcionan una masa de gran tamaño pero muy ligera.

    Forma y acabado. Las técnicas empleadas para conseguir la forma final y el acabado de los plásticos dependen de tres factores: tiempo, temperatura y deformación. La naturaleza de muchos de estos procesos es cíclica, si bien algunos pueden clasificarse como continuos o semicontínuos. Una de las operaciones más comunes es la extrusión. Una máquina de extrusión consiste en un aparato que bombea el plástico a través de un molde con la forma deseada. Los productos extrusionados, como por ejemplo los tubos, tienen una sección con forma regular. La máquina de extrusión también realiza otras operaciones, como moldeo por soplado o moldeo por inyección.  Otros procesos utilizados son el moldeo por compresión, en el que la presión fuerza al plástico a adoptar una forma concreta, y el moldeo por transferencia, en el que un pistón introduce el plástico fundido a presión en un molde.

    EL AVANCE DE LA QUIMICA DE LOS PLASTICOS


    En 1920 se produjo un acontecimiento que marcaría la pauta en el desarrollo de materiales plásticos. El químico alemán Hermann Staudinger aventuró que éstos se componían en realidad de moléculas gigantes. Los esfuerzos dedicados a probar esta afirmación iniciaron numerosas investigaciones científicas que produjeron enormes avances en esta parte de la química. En las décadas de 1920 y 1930 apareció un buen número de nuevos productos, como el etanoato de celulosa (llamado originalmente acetato de celulosa), utilizado en el moldeo de resinas y fibras; el cloruro de polivinilo (PVC), empleado en tuberías y recubrimientos de vinilo, y la resina acrílica, desarrollada como un pegamento para vidrio laminado.
    Uno de los plásticos más populares desarrollados durante este periodo es el metacrilato de metilo polimerizado, que se comercializó en Gran Bretaña con el nombre de Perspex y como Lucite en Estados Unidos, y que se conoce en español como plexiglás. Este material tiene unas propiedades ópticas excelentes; puede utilizarse para gafas y lentes, o en el alumbrado público o publicitario. Las resinas de poliestireno, comercializadas alrededor de 1937, se caracterizan por su alta resistencia a la alteración química y mecánica a bajas temperaturas y por su muy limitada absorción de agua. Estas propiedades hacen del poliestireno un material adecuado para aislamientos y accesorios utilizados a bajas temperaturas, como en instalaciones de refrigeración y en aeronaves destinadas a los vuelos a gran altura. El PTFE (politetrafluoretileno), sintetizado por primera vez en 1938, se comercializó con el nombre de teflón en 1950. Otro descubrimiento fundamental en la década de 1930 fue la síntesis del nailon, el primer plástico de ingeniería de alto rendimiento.


                                        telefono de baquelita

    Efectos negativos de las bolsas de plástico. - ACCIO ECOLOGISTA-AGRO: La major associació ecologista del País Valencià
    var notation_img = "plugins/notation/img_pack/notation";
    var notation_multi = 0;

    Efectos negativos de las bolsas de plástico.

    dimecres 28 d’abril de 2010.
     

    Las bolsas se utilizan desde los años 30, y no se conoce su duración. Según dicen los científicos su duración puede ser de 400 a 1000 años .

    Contaminación.

    Algunas tienen productos químicos para conseguir el color, y pueden envenenar el suelo Estos productos químicos, quemados pueden ser nocivos.

    Las bolsas de plástico se fotodegradan con el paso del tiempo, pero como muchos otros plásticos, se convierten en petro-polímeros más pequeños, que pasan a ser tóxicos cuando pasan a la cadena alimenticia.

    Consumo de recursos.

    Necesitan petróleo para su producción. España es altamente dependiente del petróleo, en un 99 %. El petróleo es una materia prima que tiene fecha de caducidad, a medio plazo. Se calcula que en 80 años. Por esta razón, el cambio de hábitos es necesario y será obligatorio en unos años. No debemos esperar.

    Las Bolsas como residuo, limpieza y paisaje.

    En Australia se calculó que 30 a 50 millones de bolsas de plástico terminan en playas, calles, y parques, su limpieza y supone un coste a los gobiernos y empresas de unos 4.000.000 de dólares.

    Se calcula que el 47% del residuos que salen de los vertederos por el aire, son plásticos, y de este 47%, muchas son bolsas.

    Las bolsas y el CO2.

    El Ministerio de Medio Ambiente calcula que si se dejarán de fabricar los 13.500 millones de bolsas de plástico que es fabrican al año se ahorrarían 54.000 toneladas de CO2 que se dejarían de emitir a la atmósfera. Se estima que cada bolsa comporta 4 gramos de CO2.

    Tienen efectos en la fauna.

    No podemos olvidar que los efectos sobre la fauna los tienen todos los objetos de plástico, aunque las bolsas tienen un protagonismo cierto. En el caso de algunas especies el protagonismo se especial.

    Se sabe que las bolsas de plástico y otros desperdicios de plástico matan a aves, y animales como ballenas, delfines, tortugas y focas. Se han identificado 177 especies marinas que han sido afectadas por las bolsas de plástico. Cuando mueren, la bolsa vuelve al mar, y puede matar de nuevo.

    En otros casos, la bolsa queda alrededor de las aletas, cuello u otras partes del cuerpo.

    En el mar se parten en plásticos más pequeños, y es alimento de muchos animales. Se ha podido saber que han zonas con más de 30 veces más de estos plásticos que plancton.

    No se puede saber con certeza la cantidad, y en las muertes de animales se incluyen otros objetos de plástico.

    Las bolsas de plástico, una vez se han comido, no pueden ser digeridas y muchas veces, no pueden ser expulsadas por el animal, y permanecen en el intestino. El plástico puede evitar la digestión del animal y lo puede llevar a una muerte lenta y dolorosa.

    También las ballenas pueden morir al comer bolsas de plástico, y todos los años se encuentran ballenas muertas con bolsas en su estómago.

    Se han encontrado ballenas con 23 bolsas a su interior, y partes de bolsas de plástico.

    En Agosto de 2000 se encontró una ballena con 6 metros2 de plástico, incluyendo muchas bolsas de plástico.

    En 1997, se encontró un ejemplar a Cantabria, considerado como el más grande encontrado en España (veinte metros de longitud y setenta toneladas de peso), con 50 kilos de plásticos y otros residuos comidos en el mar.

    En 1998, se encontró un pelícano muerto que había comido 17 bolsas.

    En Australia se hizo el autopsia a un ternero muerto, y tenía 8 bolsas de plástico a su estómago.

    Muchas tortugas las confunden con medusas, una comida muy apreciada por ellas. En la estación de investigación de Moreton Bay, la bióloga marina Kathy Townsend, afirma que aproximadamente el 40% de las tortugas a las que realiza la autopsia, tienen plásticos en su intestino, incluido bolsas de plástico.

    El problema de los plásticos en general radica en que siendo hoy por hoy la mayoría de ellos derivados de fueles fósiles, contribuyen al efecto invernadero. Aunque muchos plásticos pueden ser reciclados de un modo u otro, ha de existir una cantidad máxima que los limite. Por otro lado, muchos de los plásticos desechados no desaparecen del entorno. Se estima que una botella de plástico perdurará durante más o menos 200 años, y que suponiendo aproximadamente el 25% de los residuos generados en los E.E.U.U., los vertederos no podrán acoger semejante cantidad por mucho tiempo. Es por esto que se están inventando nuevas e imaginativas soluciones.

    Una porción importante de los polímeros sintéticos que se producen, se emplean como protección de objetos valiosos o de precisión. Para ello, antes del advenimiento del mundo de los plásticos, se emplearon con éxito otros materiales que hoy se pueden volver a utilizar: musgo, arena, serrín, hierbas y hojas secas, bolsas finas de algodón rellenas de pelusa o plumas y muchas otras cosas. También se puede emplear -incluso para aislamiento- alimentos como las palomitas de maíz. Todos estos elementos tienen -además de un gasto mínimo (o ninguno) en su producción- la inigualable ventaja de ser perfectamente biodegradables.

    En el caso del PVC y del PET, se está llevando a cabo el reciclado de desechos para reconvertirlos en fibras textiles de aplicación en las prendas más comunes. En el caso de la ropa reciclada el proceso, aunque no es sencillo, no requiere de una tecnología excesivamente sofisticada, por lo cual, y debido a la nueva legislación comunitaria que se avecina, será una industria cada vez más importante, aunque todavía los precios de los productos así obtenidos son bastante elevados.

    Otro aspecto representativo de la problemática habida en el entorno de los plásticos, son las ingentes cantidades de neumáticos almacenados por doquier. Solo en los E.E.U.U., hay actualmente más de tres mil millones de neumáticos en los vertederos, desguaces ilegales y pilas, creciendo a un ritmo de mil millones cada cuatro años. Además de proveer de un lugar de incubación perfecto para insectos portadores de enfermedades, los neumáticos son grandes contaminadores de la atmósfera si son quemados. Tan sólo el 20% de los neumáticos es reciclado debido a la gran cantidad de elementos diferentes en cada tipo de ellos, además de la complicación que supone que sean vulcanizados (unión íntima de sulfuros y carbonos en el caucho), y del hecho de ser un material termoestable. Sin embargo se ha encontrado una solución temporal para este problema: se pueden convertir en un producto llamado “asfalto de caucho modificado”, que por otro lado ha resultado durar más del doble que los asfaltos normales utilizados en las autopistas americanas. De hecho, las legislaciones de este país obligan ahora que al menos el 20% del asfalto empleado en los viales sea éste derivado de los neumáticos.

    TIPOS DE PLÁSTICOS:

    PET

    (Tereftalato de Polietileno)

     

    Sus propiedades más características son:

    • Alta rigidez y dureza.

    • Altísima resistencia a los esfuerzos permanentes.

    • Superficie barnizable.

    • Gran indeformabilidad al calor.

    • Muy buenas características eléctricas y dieléctricas.

    • Alta resistencia a los agentes químicos y estabilidad a la intemperie.

    • Alta resistencia al plegado y baja absorción de humedad que lo hacen muy adecuado para la fabricación de fibras.

    El PET es un plástico técnico de gran calidad para numerosas aplicaciones. Entre ellas destacan:

  • Fabricación de piezas técnicas

  • Fibras de poliéster

  • Fabricación de envases

  • Por ello, entre los materiales más fabricados destacan: envases de bebidas gaseosas, jugos, jarabes, aceites comestibles, bandejas, articulos de farmacia, medicamentos...

     

    PEAD (HDPE)

    (Polietileno de alta densidad)

     

    Sus propiedades más características son:

    • Se obtiene a bajas presiones.

    • Se obtiene a temperaturas bajas en presencia de un catalizador órgano-metálico.

    • Su dureza y rigidez son mayores que las del PEBD.

    • Su densidad es 0,94.

    • Su aspecto varía según el grado y el grosor.

    • Es impermeable.

    • No es tóxico.

    Entre los materiales más fabricados con este plástico destacan: envases de leche, detergentes, champú, baldes, bolsas, tanques de agua, cajones para pescado, juguetes, etc.

     

    PVC

    (Polocloruro de vinilo)

     

    Sus propiedades más características son:

    • Es necesario añadirle aditivos para que adquiera las propiedades que permitan su utilización en las diversas aplicaciones.

    • Puede adquirir propiedades muy distintas.

    • Es un material muy apreciado y utilizado.

    • Tiene un bajo precio.

    • Puede ser flexible o rígido.

    • Puede ser transparente, translúcido u opaco

    • Puede ser compacto o espumado.

    Los materiales que más se fabricn con este plástico son: tuberías, desagües, aceites, mangueras, cables, simil cuero, usos médicos como catéteres, bolsas de sangre, juguetes, botellas, pavimentos...

     

    PEBD (LDPE)

    (Polietileno de baja densidad)

     

    Sus propiedades más características son:

    • Se obtiene a altas presiones.

    • Se obtiene en temperaturas altas y en presencia de oxígeno.

    • Es un producto termoplástico.

    • Tiene densidad 0,92

    • Es blando y elástico

    • El film es totalmente transparente dependiendo del grosor y del grado.

    Los materiales más febricados con este plástico son: poliestireno , envases de alimentos congelados, aislante para heladeras, juguetes, aislante de cables eléctricos, rellenos...

     

     

    PP

    (Polipropileno)

     

    Sus propiedades más características son:

    • Excelente comportaiento bajo tensiones y estiramientos.

    • Resistencia mecánica.

    • Elevada flexibilidad.

    • Resistencia a la intemperie.

    • Reducida cristalización.

    • Fácil reparación de averías.

    • Buenas propiedades químicas y de impermeabilidad.

    • Aprobado para aplicaciones con agua potable.

    • No afecta al medio ambiente.

    Los materiales fabricados más destacados de este plástico son: envases de alimentos, artículos de bazar y menaje, bolsas de uso agrícola y cereales, tuberías de agua caliente, films para protección de alimentos...

    PS

    (Poliestireno)

     

    Sus propiedadesmás características son:

    • Termoplástico ideal para la elaboración de cualquier tipo de pieza o envase

    • Higiénico y económico. 

    • Cumple la reglamentación técnico - sanitaria española.

    • Fácil de serigrafiar. 

    • Fácil de manipular,

    • se puede cortar

    • se puede taladrar

    • se puede perforar.

    Los materiales que se fabrican con este plástico son: envases de alimentos congelados, aislante para heladeras, juguetes, rellenos...

     

    Otros

    (Resinas epoxídicas )
    (Resinas Fenólicas)
    (Resinas Amídicas)
    (Poliuretano)

     

    estos plásticos sirven para fabricar:

     

  • resinas epoxídicas -adhesivos e industria plástica.

  • Resinas fenólicas-Industria de la madera y la carpintería.

  • Resinas amídicas-Elementos moldeados como enchufes, asas de recipientes...

  • poliuretano-Espuma de colchones, rellenos de tapicería...

  • TERMOPLÁSTICOS
     
    POLIETILENOSBolsas, recipientes, contenedores...
    POLIÉSTERES SATURADOSBotellas para bebidas, envases alimenticios...
    POLIESTIRENOSProtectores en embalajes, planchas aislantes...
    POLIVINILOSTuberías de agua y gas, aislantes eléctricos, impermeables, antiguos discos de música...
    POLIPROPILENOSCajas, estuches con tapa abatible, jeringuillas...
    TERMOESTABLES
    FENOLESAislantes eléctricos, interruptores, bases de enchufe...
    AMINASClavijas, interruptores, recubrimientos de tableros...
    RESINAS DE POLIÉSTEREmbarcaciones, piscinas, fibras y tejidos...
    RESINAS EPOXÍDICAMaterial deportivo, alas de aviones, adhesivos...
    ELASTÓMEROS
     
    CAUCHOSNeumáticos, mangueras, artículos de goma...
    NEOPRENOSTrajes de submarinismo, rodilleras, correas...
    POLIURETANOSGomaespuma, piel artificial, guardabarros...
    SILICONASPrótesis, sondas y tubos de uso médico, cierres herméticos...

     

     

    Se denomina bioplásticos a un tipo de plásticos derivados de productos vegetales, tales como el aceite de soja o el maíz, a diferencia de los plásticos convencionales, derivados del petróleo.

    El plástico tradicional está compuesto por un polímero denominado polietileno, sintetizado a partir del petróleo por la industria petroquímica. La carestía de este combustible fósil, su carácter de resistencia a la degradacion natural y el hecho de que es una fuente que, tarde o temprano, acabará por agotarse, ha llevado a algunas partes de la industria a buscar alternativas. El ácido poliláctico, sintetizado a partir del maíz, es una de las más prometedoras.

    la nanotecnologia

    Los investigadores estiman que dentro de aproximadamente una década, será posible insertar un catéter en una gran artería y dirigirlo por el sistema circulatorio hasta el cerebro. Una vez llegue a su destino, un conjunto de nanocables se extenderían en un “ramo” con millones de diminutas sondas que podrían utilizar los 25.000 metros de capilares del cerebro como una vía para llegar a destinos específicos dentro del cerebro.

    En sus experimentos los científicos maniobraron nanocables de platinio a través de los vasos sanguíneos en muestras de tejido humano y detectaron la actividad eléctrica de las células cerebrales activas colocadas al lado del tejido. Paralelamente crearon programas y soportes informáticos que podría funcionar como un tipo de convertido de analog a digital, convirtiendo señales emitidas por el cerebro en señales digitales y vice versa.

    Desde entonces, los investigadores centran sus esfuerzos en cómo crear un conector suficientemente pequeño en una punta para llegar a cualquier neurona sin obstruir el flujo sanguíneo, pero suficientemente grande en la otra punta para conectar con instrumentos con el fin de grabar o enviar pulsos eléctricos. La solución que han encontrado el equipo ha sido sustituir los nanocables de platino por nanocables de polímeros, que además de ser mucho más baratos, pueden ser convertidos en cables mucho más finos y flexibles.

    Actualmente los científicos investigan un proceso que permita la fabricación de nanocables de polímero que miden tan solo 100nm. Creen que un nanocable de este tipo podría ser “dirigible” y que se le podría guiar por uno de los vasos sanguíneos menores que salen de los más grandes.
    Otra ventaja de este tipo de cables de polímero es que son biodegradable así que podrían ser utilizados para estudios cortos o diagnósticas, porque luego se decompondrían.

    RAM-CMOS

    RAM-CMOS es un tipo de memoria en que se guardan los datos que se pueden configurar del BIOS y contiene información básica sobre algunos recursos del sistema que son susceptibles de ser modificados como el disco duro, el tipo de disco flexible, etc. Esta información es almacenada en una RAM, de 64 bytes de capacidad, con tecnología CMOS, que le proporciona el bajo consumo necesario para ser alimentada por una pila que se encuentra en la placa base y que debe durar años, al ser necesario que este alimentada constantemente, incluso cuando el ordenador se encuentra apagado. Para ello antiguamente se usaba una batería recargable que se cargaba cuando el ordenador se encendía. Mas modernamente se ha sustituido por una pila desechable de litio (generalmente modelo CR-2032) y que dura de 2 a 5 años.

    La información contenida en esta memoria es utilizada en la etapa de POST para establecer el diagnostico del sistema, al inicio del arranque del ordenador. En ese momento, entre otras tareas, se comprueba la integridad del contenido del CMOS y si dichos datos son incorrectos, se genera un error y el sistema solicita una respuesta al operador sobre la acción a seguir. Si de lo contrario el contenido es correcto, se utiliza la información almacenada para proseguir el arranque.

    Básicamente es una memoria de acceso rápido que guarda los datos básicos para que el ordenador pueda encenderse.


     

    Restablecimiento de la configuración de la CMOS:

    Para acceder a la configuración de la BIOS cuando la máquina no funciona, es una medida de vez en cuando necesaria. En los ordenadores más antiguos con respaldo de batería de RAM, la eliminación de la batería y el cortocircuito de los terminales de la batería de entrada, durante un tiempo, hizo el trabajo en algunas máquinas más modernas. Ésta medida sólo se restablece el RTC. Algunas placas base ofrecen un jumper CMOS-reset o un botón de reinicio. En otros casos, el chip EEPROM ha de desoldar los datos en forma manual, por manos de un programador. A veces es suficiente motivo para el CLK o línea de DTA de la I²C bus de la EEPROM en el momento adecuado durante el arranque, esto requiere una cierta precisión en las piezas de soldadura SMD. Si la máquina le permite arrancar, pero no quiere que le permiten a la configuración de la BIOS, una posible recuperación es dañar la suma de comprobación CMOS, haciendo puerto directo escribe usando debug.exe, corrompiendo a algunos bytes de la suma de control de área protegida de la RAM CMOS.

    BIOS

    El Sistema Básico de Entrada/Salida o BIOS (Basic Input-Output System ) es un código de software que localiza y reconoce todos los dispositivos necesarios para cargar el sistema operativo en la RAM; es un software muy básico instalado en la placa base que permite que ésta cumpla su cometido. Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador. El primer término BIOS apareció en el sistema operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de CP/M usualmente tenían un simple cargador arrancable en la ROM, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al CP/M BIOS.

    El BIOS (Basic Input-Output System) es un sistema básico de entrada/salida que normalmente pasa inadvertido para el usuario final de computadoras. Se encarga de encontrar el sistema operativo y cargarlo en memoria RAM. Posee un componente de hardware y otro de software, este último brinda una interfaz generalmente de texto que permite configurar varias opciones del hardware instalado en la PC, como por ejemplo el reloj, o desde qué dispositivos de almacenamiento iniciará el sistema operativo (Windows, GNU/Linux, Mac OS X, etc.).

    El BIOS gestiona al menos el teclado de la computadora, proporcionando incluso una salida bastante básica en forma de sonidos por el altavoz incorporado en la placa base cuando hay algún error, como por ejemplo un dispositivo que falla o debería ser conectado. Estos mensajes de error son utilizados por los técnicos para encontrar soluciones al momento de armar o reparar un equipo. Basic Input/Output System - Sistema básico de entrada/salida de datos). Programa que reside en la memoria EPROM (Ver Memoria BIOS no-volátil). Es un programa tipo firmware. La BIOS es una parte esencial del hardware que es totalmente configurable y es donde se controlan los procesos del flujo de información en el bus del ordenador, entre el sistema operativo y los demás periféricos. También incluye la configuración de aspectos importantísimos de la máquina.

    Firmware en tarjetas adaptadoras

    Un sistema puede contener diversos chips con firmware BIOS. Además del BIOS de arranque situado en la disco duro y placa base.

    El mercado de los BIOS de computadoras personales delega a terceros la producción del BIOS y un conjunto de herramientas. Estos se conocen como "proveedores independientes de BIOS" o IBV (del inglés independent BIOS vendor). Los fabricantes de placas madre después personalizan este BIOS según su propio hardware. Por esta razón, la actualización de el BIOS normalmente se obtiene directamente del fabricante de placas madre. El fabricante puede publicar actualizaciones del firmware por medio de su pagina web, pero una mala compatibilidad con el Hardware puede provocar un fallo que se expande por toda la placa base, inutilizándola por completo. Los principales proveedores de BIOS son American Megatrends (AMI), General Software, Insyde Software, y Phoenix Technologies (que compró Award Software International en 1998).

    ¿Y esta publicidad? Puedes eliminarla si quieres