lunes, 16 de mayo de 2016

12.GOOGLE

GOOGLE


Google (pronunciación AFI [ˈgugəl]) es una compañía, principal subsidiaria de la multinacional estadounidense Alphabet Inc., especializada en productos y servicios relacionados con Internet, software, dispositivos electrónicos y otras tecnologías. El principal producto de Google es el motor de búsqueda de contenido en Internet del mismo nombre aunque ofrece también otros productos y servicios como el correo electrónico llamado Gmail, sus servicios de mapas Google Maps y Google Earth, el sitio web de vídeos YouTube y otras utilidades web como Google Libros o Google Noticias, Google Chrome y la red social Google+. Por otra parte, lidera el desarrollo del sistema operativo basado en Linux, Android, orientado a teléfonos inteligentes, tabletas, televisores y automóviles y en gafas de realidad aumentada, las Google Glass.

Con más de un millón de servidores y centros de datos presentes en todo el mundo, Google es capaz de procesar más de 1000 millones de peticiones de búsqueda diarias y su motor de búsqueda es el sitio web más visitado a nivel mundial tal como muestra el ranking web internacional.3

La empresa es y ha sido criticada por colaborar con determinados países en la censura de Internet con el afán de expandirse comercialmente en ellos y por la infracción reiterada de derechos de autor. También es objeto de críticas por presunta ingeniería fiscal en diferentes países, y por ser una de las empresas que colaboran con las agencias de inteligencia en la red de vigilancia mundial, sacada a la luz en 2013.





BIOGRAFÍA DE SERGUÉI BRIN





Sergey Brin Ted 2010.jpg





Serguéi Mijáilovich Brin (en ruso: Серге́й Миха́йлович Брин, 21 de agosto de 1973, Moscú, Unión Soviética) es un científico de la computación y empresario de Internet Ruso de origen judío nacido en la ex Unión Soviética que, junto a Larry Page, fundó Google, una de las más rentables, grandes y célebres compañías de Internet. En conjunto, Brin y Page aún mantienen el control de un 16% de la compañía. Es a su vez una de las personas más ricas del mundo, con una fortuna personal estimada en 29 200 millones de dólares para finales de 2015.

Brin emigró a Estados Unidos con su familia desde la Unión Soviética cuando contaba con apenas seis años de edad. Se licenció por la Universidad de Maryland, siguiendo los pasos de su abuelo y de su padre en el estudio de las matemáticas y las ciencias de la computación. Después de su graduación se trasladó a la Universidad de Stanford para doctorarse en ciencias de la computación gracias a una beca. Allí conoció a Larry Page, con quien más tarde entablaría amistad. En una habitación compartida desarrollaron gracias a la minería de datos un motor de búsqueda. El buscador se hizo popular en Stanford y suspendieron sus estudios para poner en marcha el futuro buscador de Google en un garaje alquilado. La empresa en pocos años tuvo un gran éxito a nivel mundial.

Brin está interesado en otras áreas y financia diversos proyectos de investigación y filantropía. The Economist lo describió como un «Hombre Ilustrado» y como alguien que pensaba que el conocimiento siempre es bueno, y sin duda siempre mejor que la ignorancia, una filosofía que puede aplicarse a la «misión» de Google de «organizar la información de todo el mundo y hacerla universal y útil para todo»; así, el lema no oficial que Google tiene es: no seas malvado.







BIOGRAFÍA DE LARRY PAGE


Larry Page in the European Parliament, 17.06.2009.jpg







Page nació en East Lansing, Míchigan, Estados Unidos, el 26 de marzo de 1973. Es hijo de dos docentes universitarios, Gloria Page, profesora de programación en la Universidad de Míchigan y Carl V. Page, profesor de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Carolina del Norte en Chapel Hill y de la Universidad de Míchigan, un pionero y autoridad en el campo de la Inteligencia Artificial, prematuramente fallecido en 1996.

Aunque Page es de origen judío por parte de madre, su educación fue laica y él confiesa no practicar el judaísmo ni otra religión. Desde los dos años de edad asistió en Lansing a una escuela del método Montessori. La pasión de Page por los ordenadores y la informática empezó a los seis años, y su interés por la tecnología y los inventos a los doce. Su ídolo juvenil fue Nikola Tesla. Siguiendo los pasos de sus padres, y bajo su orientación, cursó estudios en la East Lansing High School y se graduó con honores en la Universidad Estatal de Míchigan, obteniendo un grado en Ingeniería de Computadores (Computer Engineering). Se doctoró en Ciencias de la computación en la Universidad de Stanford. El Instituto de Empresa lo premió con un máster honorífico en Administración de Empresas y fue el primero en recibir el premio Alumni society recent engineering graduate de la Universidad de Míchigan.

11. FACEBOOK

FACEBOOK





Facebook (pronunciación AFI: [feɪsbʊk]) (NASDAQ: FB) es un sitio web de redes sociales creado por Mark Zuckerberg y fundado junto a Eduardo Saverin, Chris Hughes y Dustin Moskovitz. Originalmente era un sitio para estudiantes de la Universidad de Harvard. Su propósito era diseñar un espacio en el que los alumnos de dicha universidad pudieran intercambiar una comunicación fluida y compartir contenido de forma sencilla a través de Internet. Fue tan innovador su proyecto que con el tiempo se extendió hasta estar disponible para cualquier usuario de la red.

A mediados de 2007 lanzó las versiones en francés, alemán y español traducidas por usuarios de manera no remunerada,5 principalmente para impulsar su expansión fuera de Estados Unidos, ya que sus usuarios se concentran en Estados Unidos, Canadá y Reino Unido. Facebook cuenta con más de 1350 millones de miembros, y traducciones a 70 idiomas.6 7 8 En octubre de 2014, Facebook llegó a los 1350 millones de usuarios,6 de los cuáles había más de 700 millones de usuarios móviles. Brasil, India, Indonesia, México y Estados Unidos son los países con más usuarios,9 sin embargo hay usuarios que poseen más de una cuenta.10

Su infraestructura principal está formada por una red de más de 50 000 servidores que usan distribuciones del sistema operativo GNU/Linux usando LAMP.11

Las principales críticas a la red social y la empresa siempre se han centrado en la supuesta falta de privacidad que sufren sus millones de usuarios. Estas críticas se acrecentaron en 2013, cuando se descubrió que la Agencia de Seguridad Nacional de Estados Unidos y otras agencias de inteligencia vigilan los perfiles de millones de usuarios y sus relaciones con amigos y compañeros de trabajo.12

El 9 de abril de 2012 se anunció que Facebook adquirió Instagram por 1000 millones de dólares.13 En febrero de 2014 los responsables de Facebook anunciaron la compra del servicio de mensajería móvil WhatsApp por 16 000 millones de dólares.

BIOGRAFÍA DE MARK ZUCKERBERG


Mark Zuckerberg em setembro de 2014.jpg



Mark Elliot Zuckerberg (White Plains, Estados Unidos, 14 de mayo de 1984) es un programador, filántropo y empresario estadounidense conocido por ser el creador de Facebook. Para desarrollar la red, Zuckerberg contó con el apoyo de sus compañeros de Harvard , el coordinador de ciencias de la computación y sus compañeros de habitación Eduardo Saverin, Dustin Moskovitz, y Chris Hughes. Actualmente es el personaje más joven que aparece en la lista anual de milmillonarios de la revista Forbes, con una fortuna valorada en 34.200 millones de dólares.1 Fue nombrado como Persona del Año en 2010 por la publicación estadounidense Time.





10. MACINTOSH

MACINTOSH









Macintosh1 abreviado como Mac, es la línea de computadoras personales diseñada, desarrollada y comercializada por Apple Inc. En sus inicios fue una alternativa económica y doméstica al Lisa, un avanzado microcomputador empresarial, cuya línea de desarrollo fue absorbida por la línea Macintosh. El Mac terminó por convertirse en la línea estándar de desarrollo de los computadores de Apple, al desaparecer la línea evolutiva del Apple II.

El Macintosh 128K, llamado así a cuenta de sus 128 KiB de memoria RAM, fue lanzado el 24 de enero de 1984. Siendo el primer computador personal que se comercializó exitosamente,[cita requerida] que usaba una interfaz gráfica de usuario (GUI) y un ratón en vez de la línea de comandos. Sus características técnicas revolucionaron la industria de computadores a mediados de la década de 1980, manteniendo su línea evolutiva de desarrollo hasta el día de hoy.

La gama de productos Mac en la actualidad varía desde el básico Mac Mini de escritorio hasta los servidores de rango medio como Mac Pro. Los sistemas Mac tienen como objetivo principal de mercado el hogar, la educación y la creatividad profesional. La producción de Mac está basada en un modelo de integración vertical en los que Apple proporciona todos los aspectos de su hardware y crea su propio sistema operativo que viene preinstalado en todos los Mac. Esto contrasta con los PC preinstalados con Microsoft Windows, donde un vendedor proporciona el sistema operativo y múltiples vendedores el hardware. En ambos casos, el hardware permite el funcionamiento de otros sistemas operativos: A partir de 1998, los Mac son capaces de soportar sistemas operativos como Linux, FreeBSD y Windows. En la actualidad también es posible modificar el sistema operativo de Apple para hacerlo compatible con la mayoría de hardware existente; es el llamado movimiento OSx86.


Los primeros Macintosh estaban basados en los microprocesadores de la familia Motorola MC68000, de tecnología CISC. En marzo de 1994, Apple introdujo en la gama Macintosh los chips PowerPC del Consorcio Apple/IBM/Motorola, que suponían el cambio a la tecnología RISC. En 2006, Apple inició la transición desde la línea de PowerPC line a los procesadores Intel con arquitectura x86. Los Mac actuales usan la serie de microprocesadores Intel Core 2 Duo, Intel Core i3, Intel Core i5, Intel Xeon e Intel Core i7. Todos los modelos de Mac actuales vienen con una versión nativa de la última versión de Mac OS X, que en julio de 2015 se actualizó a su última versión, OS X "El Capitan".

BIOGRAFÍA DE STEVE JOBS



Steve Jobs Headshot 2010-CROP.jpg



Steven Paul Jobs (San Francisco, California, 24 de febrero de 1955-Palo Alto, California, 5 de octubre de 2011),8 9 10 11 más conocido como Steve Jobs, fue un empresario y magnate de los negocios del sector informático y de la industria del entretenimiento estadounidense. Fue cofundador y presidente ejecutivo de Apple Inc.12 y máximo accionista individual de The Walt Disney Company.13

Fundó Apple en 1976 junto con un amigo de la adolescencia, Steve Wozniak, con ayuda del ex-compañero de Jobs en Atari, Ron Wayne en el garaje de su casa. Aupado por el éxito del Apple II Jobs obtuvo una gran relevancia pública, siendo portada de Time en 1982.14 Contaba 26 años y ya era millonario gracias a la exitosa salida a bolsa de la compañía a finales del año anterior. La década de los 80 supuso la entrada de potentes competidores en el mercado de los ordenadores personales, lo que originó las primeras dificultades empresariales. Su reacción fue innovar, o mejor dicho, implementar: a principios de 1984 su compañía lanzaba el Macintosh 128K, que fue el primer ordenador personal que se comercializó exitosamente que usaba una interfaz gráfica de usuario (GUI) y un ratón en vez de la línea de comandos. Después de tener problemas con la cúpula directiva de la empresa que el mismo fundó, renunció.15 Jobs vendió entonces todas sus acciones, salvo una. Ese mismo año recibía la Medalla Nacional de Tecnología del presidente Ronald Reagan, cerrando con este reconocimiento esta primera etapa como emprendedor. Regresó en 1997 a la compañía, que se encontraba en graves dificultades financieras, y fue su director ejecutivo hasta el 24 de agosto de 2011.16 17 18 19 En ese verano Apple sobrepasó a Exxon como la empresa con mayor capitalización del mundo.20

Durante los años 90 transformó una empresa subsidiaria adquirida a Lucasfilm en Pixar, que revolucionó la industria de animación con el lanzamiento de Toy Story. La integración de esta compañía en Disney, de la que era proveedor, convertiría a Jobs en el mayor accionista individual del gigante del entretenimiento. En el año de su muerte, su fortuna se valoraba en 8.300 millones de dólares21 y ocupaba el puesto 110 en la lista de grandes fortunas de la revista Forbes.

En su segunda etapa en Apple, también cambió el modelo de negocio de la industria musical: aprobó el lanzamiento del iPod en 2001, y en 2003 la tienda online de música de iTunes, que en siete años vendió más de 10.000 millones de canciones y dominó completamente el negocio de música en línea, a un precio de US$0,99 por canción descargada.22 Ya en 2009 lograba acaparar el 25 por ciento de la venta de música en los Estados Unidos, y es la mayor tienda musical por volumen de ventas de la historia.23 Según el registro de patentes de los Estados Unidos, 317 patentes de Jobs figuran a nombre de Apple.







9.LINUX

LINUX






GNU/Linux es uno de los términos empleados para referirse a la combinación del núcleo o kernel libre similar a Unix denominado Linux con el sistema operativo GNU. Su desarrollo es uno de los ejemplos más prominentes de software libre; todo su código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL (Licencia Pública General de GNU,) y otra serie de licencias libres.1

A pesar de que "Linux" se denomina en la jerga cotidiana al sistema operativo,2 3 este es en realidad solo el Kernel (núcleo) del sistema. La verdadera denominación del sistema operativo es "GNU/Linux" debido a que el resto del sistema (la parte fundamental de la interacción entre el hardware y el usuario) se maneja con las herramientas del proyecto GNU (www.gnu.org) y con entornos de escritorio (como GNOME), que también forma parte del proyecto GNU aunque tuvo un origen independiente. Como el Proyecto GNU destaca,4 GNU es una distribución, usándose el término sistema operativo en el sentido empleado en el ecosistema Unix, lo que en cualquier caso significa que Linux es solo una pieza más dentro de GNU/Linux. Sin embargo, una parte significativa de la comunidad, así como muchos medios generales y especializados, prefieren utilizar el término Linux para referirse a la unión de ambos proyectos.

Para más información consulte la sección "Denominación GNU/Linux" o el artículo "Controversia por la denominación GNU/Linux".


A las variantes de esta unión de programas y tecnologías, a las que se les adicionan diversos programas de aplicación de propósitos específicos o generales se las denomina distribuciones. Su objetivo consiste en ofrecer ediciones que cumplan con las necesidades de un determinado grupo de usuarios. Algunas de ellas son especialmente conocidas por su uso en servidores y supercomputadoras.5 donde tiene la cuota más importante del mercado. Según un informe de IDC, GNU/Linux es utilizado por el 78% de los principales 500 servidores del mundo,6 otro informe le da una cuota de mercado de 89% en los 500 mayores supercomputadores.7 Con menor cuota de mercado el sistema GNU/Linux también es usado en el segmento de las computadoras de escritorio, portátiles, computadoras de bolsillo, teléfonos móviles, sistemas embebidos, videoconsolas y otros dispositivos.




BIOGRAFÍA DE RICHARD MATTHEW STALLMAN




Richard Stallman 2005 (chrys).jpg





Richard Matthew Stallman (nacido en Manhattan, Nueva York, 16 de marzo de 1953), con frecuencia abreviado como «rms»,1 es un programador estadounidense y fundador del movimiento por el software libre en el mundo.

Entre sus logros destacados como programador se incluye la realización del editor de texto GNU Emacs,2 el compilador GCC,3 y el depurador GDB,4 bajo la rúbrica del Proyecto GNU. Sin embargo, es principalmente conocido por el establecimiento de un marco de referencia moral, político y legal para el movimiento del software libre, como una alternativa al desarrollo y distribución del software no libre o privativo. Es también inventor del concepto de copyleft (aunque no del término), un método para licenciar software de tal forma que su uso y modificación permanezcan siempre libres y queden en la comunidad de usuarios y desarrolladores.

Durante este tiempo, Stallman fue también asistente voluntario de laboratorio en el departamento de biología de la Universidad Rockefeller. Aunque ya estaba ingresando a la carrera de física o matemáticas, su maestro tutor en el Rockefeller pensó que él podría ser biólogo en un futuro.7

Laboratorio de inteligencia artificial del MIT
Commons-emblem-contradict.svg
Existen desacuerdos sobre la exactitud de la información en este artículo o sección.
En la página de discusión puedes consultar el debate al respecto.
En 1971, siendo estudiante de primer año de Física en la Universidad Harvard, Stallman se convirtió en un hacker del Laboratorio de Inteligencia Artificial del Instituto Tecnológico de Massachusetts (MIT). En los años 1980, la cultura hacker que constituía la vida de Stallman empezó a disolverse bajo la presión de la comercialización en la industria del software. En particular, otros hackers del laboratorio de IA fundaron la compañía Symbolics, la cual intentaba activamente reemplazar el software libre del Laboratorio con su propio software privativo.8

Entre 1982 y 1983, Stallman por sí solo duplicó los esfuerzos de los programadores de Symbolics para impedir que adquirieran un monopolio sobre los ordenadores del laboratorio. Por ese entonces, sin embargo, él era el último de su generación de hackers en el laboratorio. Se le pidió que firmara un acuerdo de no divulgación (non-disclosure agreement) y que llevara a cabo otras acciones que él consideró traiciones a sus principios. El 27 de septiembre de 1983 Stallman anunció en varios grupos de noticias de Usenet el inicio del proyecto GNU, que perseguía crear un sistema operativo completamente libre.9

Iniciativa GNU[editar]

Al anuncio inicial del proyecto GNU siguió, en 1985, la publicación del Manifiesto GNU, en el cual Stallman declaraba sus intenciones y motivaciones para crear una alternativa libre al sistema operativo Unix, al que denominó GNU (GNU No es Unix), pronunciado de forma parecida a ñu, en inglés (de ahí los dibujos-logotipos que lo representan). Poco tiempo después fundó la organización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo. Inventó el concepto de copyleft, que fue utilizado en la Licencia Pública General GNU (conocida generalmente como la «GPL») en 1989. La mayor parte del sistema GNU, excepto el núcleo, se completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo GNU/Linux


8. WINDOWS

WINDOWS


Microsoft Windows (conocido generalmente como Windows o MS Windows), es el nombre de una familia de distribuciones de software para PC, smartphone, servidores y sistemas empotrados, desarrollados y vendidos por Microsoft, y disponibles para múltiples arquitecturas, tales como x86 y ARM.

Desde un punto de vista técnico, no son sistemas operativos, sino que contienen uno (tradicionalmente MS-DOS, o el más actual cuyo núcleo es Windows NT) junto con una amplia variedad de software; no obstante, es usual (aunque no necesariamente correcto) denominar al conjunto como sistema operativo en lugar de distribución. Microsoft introdujo un entorno operativo denominado Windows el 20 de noviembre de 1985 como un complemento para MS-DOS en respuesta al creciente interés en las interfaces gráficas de usuario (GUI).1 Microsoft Windows llegó a dominar el mercado mundial de computadoras personales, con más del 90 % de la cuota de mercado, superando a Mac OS, que había sido introducido en 1984.

La versión más reciente de Windows es Windows 10 para equipos de escritorio, Windows Server 2012 para servidores y Windows Phone 8 y 8.1 para dispositivos móviles. La primera versión en español fue Windows 3.0.

La primera versión se lanzó en 1985 y comenzó a utilizarse de forma generalizada gracias a su interfaz gráfica de usuario (GUI, Graphical User Interface) basada en ventanas. Hasta ese momento (y hasta mucho después como corazón de Windows), el sistema operativo más extendido era MS-DOS (Microsoft Disk Operating System), que por aquel entonces contaba con una interfaz basada en línea de comandos.


El 30 de septiembre de 2014, Microsoft presentó Windows 10, estando disponible desde ese día a usuarios avanzados que se suscribieran al programa Insider. Esta nueva versión del sistema operativo que llegó de forma oficial y gratuita a usuarios con licencia genuina de Windows 7, Windows 8 y Windows 8.1 así como a Insiders el 29 de julio de 2015, siendo la primera versión que busca la unificación de dispositivos (escritorio, portátiles, teléfonos inteligentes, tabletas y videoconsolas) bajo una experiencia común, con lo que se espera eliminar algunos problemas que se presentaron con Windows 8/ 8.1.

BIOGRAFÍA DE BILL GATES


Dts news bill gates wikipedia.JPG


William Henry Gates III nació el 28 de octubre de 1955. Es hijo de William Henry Gates II, un destacado abogado, y de Mary Gates, una profesora de la Universidad de Washington y directora del First Interstate Bank. Con ellos y su hermana, dos años mayor, vivió en la ciudad de Seattle, en el estado de Washington. Hasta sexto grado fue alumno regular de un colegio público.

Cursó estudios en la escuela privada de élite de Lakeside, en Seattle. Esta escuela tenía ya una computadora en el año 1968, lo que le permitió a Gates tomar contacto con la máquina y aficionarse a la informática. También en Lakeside conoció a Paul Allen, con quien más tarde fundaría Microsoft.

El 4 de abril de 1975, siendo aún estudiante en la Universidad de Harvard crea la empresa de software Microsoft. En 1976 abandonó la universidad y se trasladó a Albuquerque, sede de MITS, para pactar con esa empresa la sesión del 50 % del lenguaje para computadoras Basic. Al año siguiente, se enteró del éxito de la empresa Apple y de que necesitaban un intérprete de Basic.

En 1980, se reunió con representantes de IBM en Seattle. Consiguió venderles el sistema operativo MS-DOS, aunque él aún no lo tenía y luego lo compra a muy bajo precio a un joven programador. IBM necesitaba ese sistema operativo para competir con Apple, razón por la cual la negociación fue flexible. Microsoft quiso los derechos de licencia, mantenimiento, e incluso la facultad de vender el DOS a otras compañías. IBM aceptó, considerando que lo que produciría dividendos sería el hardware y no el software. Unos días después, Microsoft compró los derechos de autor del QDOS a Tim Paterson, que trabajaba para la Seattle Computer Products, por 50 000 dólares, que vendió a IBM como MS-DOS (Microsoft DOS). Lo que llama poderosamente la atención fue que IBM no comprara el MS-DOS sino que decidiera pagar a Microsoft un canon por cada copia que se vendiera junto con un IBM-PC.[cita requerida]

Consciente de la importancia del entorno gráfico que había mostrado Apple (originalmente la interfaz gráfica y el "ratón" fueron desarrollados por Xerox PARC) en su ordenador Lisa, se propuso conseguir también el entorno gráfico y el "ratón" para operarlo. Mientras, Steve Jobs, fundador de Apple, iniciaba el desarrollo del Macintosh, Bill Gates visitó Apple. Ofrecía mejorar sus hojas de cálculo y otros programas. Amenazaba con vender su material informático a IBM, con lo que obtuvo una alianza Apple-Microsoft.[cita requerida] Microsoft obtuvo legalmente la tecnología del entorno gráfico y del ratón, y sacó al mercado Microsoft Windows, como directo competidor de Macintosh.





7. Internet

INTERNET


El internet (o, también, la internet3 ) es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen como una red lógica única de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como Arpanet, entre tres universidades en California (Estados Unidos).

Uno de los servicios que más éxito ha tenido en internet ha sido la World Wide Web (WWW o la Web), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Esta fue un desarrollo posterior (1990) y utiliza internet como medio de transmisión.4


Existen, por tanto, muchos otros servicios y protocolos en internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia —telefonía (VoIP), televisión (IPTV)—, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.4 5 6


BIOGRAFÍA DE TIM BERNERS-LEE




Sir Tim Berners-Lee.jpg


Nació en el sudoeste de Londres en 1955. Sus padres eran matemáticos y formaron parte del equipo que construyó el Manchester Mark I. Se graduó en física en 1976 en el Queen's College de la Universidad de Oxford. Conoció a su primera esposa en este periodo. En 1978, trabajó en D.G. Nash Limited (también en Poole) donde escribió un sistema operativo.


Timothy "Tim" John Berners-Lee, KBE (Londres, Reino Unido, 8 de junio de 1955) es un científico de la computación británico, conocido por ser el padre de la Web. Estableció la primera comunicación entre un cliente y un servidor usando el protocolo HTTP en noviembre de 1989. En octubre de 1994 fundó el Consorcio de la World Wide Web (W3C) con sede en el MIT, para supervisar y estandarizar el desarrollo de las tecnologías sobre las que se fundamenta la Web y que permiten el funcionamiento de Internet.

Ante la necesidad de distribuir e intercambiar información acerca de sus investigaciones de una manera más efectiva, Berners-Lee desarrolló las ideas fundamentales que estructuran la web. Él y su grupo crearon lo que por sus siglas en inglés se denomina Lenguaje HTML (HyperText Markup Language) o lenguaje de etiquetas de hipertexto, el protocolo HTTP (HyperText Transfer Protocol) y el sistema de localización de objetos en la web URL (Uniform Resource Locator).

martes, 10 de mayo de 2016

6.Bios

BIOS

Tiene varias funciones. La principal es arrancar el PC. Cuando esta enciende, realiza el test de memoria RAM y comprueba que dispositivos, como por ejemplo los discos duros, están conectados.

En este proceso se encarga de configurarlos y ofrecérselos al sistema operativo. Si la BIOS es incapaz de detectar un determinado dispositivo el sistema no podrá usarlo, aquí puedes ver la importancia de este elemento.


La BIOS, por tanto, se convierte en la encargada de ofrecer la capa más cercana al hardware.Hace algunos años, cuando los dispositivos eran más lentos. La BIOS realizaba las operaciones de entrada y salida, de ahí su nombre. Es decir, llevaba los datos desde los dispositivos al procesador. Esto ha cambiado y ahora se utilizan otros sistemas más rápidos como accesos DMA en los cuales el procesador mapea la memoria de las tarjetas saltándose la BIOS y accediendo directamente a los datos.




BIOGRAFIA DE GARY KILDALL


Gary Kildall (19 de mayo de 1942 - 11 de julio de 1994) fue el creador del sistema operativo CP/M (posteriormente DR-DOS y de la interfaz gráfica de usuario GEM Desktop, y fundador de Digital Research).1

Mientras trabajaba como profesor en la Escuela Naval de Posgrado (NPS) en Monterey, California, creó implementaciones del lenguaje de programación PL/I para los microprocesadores 4004 y 8008 al mismo tiempo que trabajaba como consultor para Intel. Se refería a esas versiones como PL/M, M por microcomputadora.


En 1973, Kildall comenzó a trabajar en un sistema operativo de disco para crear un entorno de desarrollo para microcomputadoras PL/M, y de allí surgió CP/M. Fundó la compañía Digital Research luego de renunciar a su trabajo en NPS en 1976 y continuó trabajando en CP/M. Al principio lo vendía en avisos clasificados en las últimas páginas de revistas de computación.


Con el lanzamiento de la Altair 8800 en enero de 1975 finalmente había un sistema comercial capaz de correr CP/M, y antes de fin de ese año surgieron varios ordenadores clónicos con sistemas de discos que lo requerían. Para 1977, era el más popular de los sistemas operativos de microcomputadora en existencia, corriendo en casi todas las computadoras basadas en un procesador Intel 8080 o Zilog Z80.


En 1980, IBM se acercó a Digital Research buscando una versión del CP/M para su próxima computadora personal. Según cuenta la leyenda, Kildall dejó esperando a los hombres de IBM varias horas para volar en su avioneta. Esta leyenda, aunque popular, no es considerada verdadera, ya que era Dorothy, la esposa de Kildall, quien manejaba las transacciones comerciales. Otra historia dice que IBM quería que Dorothy firmara su acuerdo de no divulgación estándar, que ella consideraba muy limitante. IBM volvió para hablar con Microsoft y Bill Gates vio la oportunidad comercial de su vida. Obtuvo los derechos para un clon de CP/M llamado QDOS (por Quick and Dirty Operating System) escrito por Tim Paterson de Seattle Computer, se lo licenció a IBM, y así nació el MS-DOS/PC-DOS.


Más tarde, IBM descubrió que el sistema operativo de Gates podría haber infringido el copyright de CP/M, se contactó con Kildall, y acordaron que éste no les llevaría a juicio a cambio de que junto con el PC-DOS se vendiera el CP/M. El precio fijado era de 250 dólares para el CP/M y 40 dólares para el PC-DOS.



La decisión de usar el sistema operativo de Microsoft fue el principio del fin de Digital Research como el mayor productor mundial de software para microcomputadoras.

5.Procesador

Procesador

Resultado de imagen para procesador


El término "Procesador" puede referirse a los siguientes artículos:
CPU, el elemento que interpreta las instrucciones y procesa los datos de los programas de computadora.
Microprocesador informático o simplemente procesador, un circuito integrado que contiene todos los elementos de la CPU.
Graphics Processing Unit o Unidad de Procesamiento Gráfico, es un procesador dedicado a procesamiento de gráficos o coma flotante. Es el elemento principal de toda tarjeta gráfica.
Physics processing unit o Unidad de Procesamiento Físico es un microprocesador dedicado, diseñado para manejar cálculos físicos.
Procesador digital de señal (DSP), un sistema digital generalmente dedicado a interpretar señales analógicas a muy alta velocidad.
Front end processor es un pequeño computador que sirve de a un computador host como interfaz para un número de redes.
Data Processor es un sistema que procesa datos.
Procesador de textos, un software informático destinado a la creación y edición de documentos de texto.
Procesador de audio analógico, un aparato frecuentemente utilizado en los estudios de grabación y estaciones de radio.
Procesador de alimentos, un electrodoméstico de cocina también llamado multiprocesador.





BIOGRAFÍA DE MARCIAN EDWARD

Marcian Edward "Ted" Hoff (28 octubre, de 1937 en Rochester, New York), es el co-inventor del microprocesador que contribuyó con la idea de arquitectura en 1969. Entró en Intel en 1968.
La idea que tuvo este joven ingeniero electrónico fue muy brillante cambiando el paradigma que hasta entonces se tenía sobre el desarrollo de los circuitos electrónicos. Ted había sido asignado a un proyecto para producir un conector de 12 microchips destinados a fabricar una nueva calculadora electrónica que iba a lanzar al mercado la compañía japonesa Busicom. Cada uno de los chips que requería la citada máquina, debería de tener una función distinta. Ese era el tipo de arquitectura de diseño que se venía utilizando habitualmente para este tipo de aparatos electrónicos: un chip efectuaría los cálculos; otro chip controlaría el teclado; otro chip mostraría los dígitos en la pantalla. Se trataba de una tarea muy compleja y delicada: algunos de los chips contenían más de 5.000 transistores y todos ellos debían de encajar con absoluta precisión dentro del dispositivo de la calculadora.
Cuando Hoff valoró el trabajo que debía llevarse a cabo, se temió que el costo total del citado conector para los chips que se necesitaban excediera al presupuesto previsto por Busicom. De modo que Ted se apartó del plan original del cliente y adoptó un criterio de diseño completamente diferente: en vez de tratar de incorporar a la calculadora una docena de chips especializados, decidió crear un solo chip que tuviera diferentes funcionalidades. En realidad este nuevo dispositivo sería una unidad de procesamiento central pero pudiendo realizar funciones diferentes, por los requerimientos necesarios para el aparato donde fuera a ser instalado.
Dos años más tarde, la idea de Ted Hoff dio sus frutos cuando Federico Faggin dirigió el proyecto MCS-4, desde abril de 1970 hasta junio de 1971, aportando su diseño innovador que hizo posible la integración del 4004 en un único chip, e Intel dio a conocer su semiconductor 4004, el que fue el primer microprocesador del mundo, en 1971.



BIOGRAFIA DE MASATOSHI SHIMA

Resultado de imagen para Masatoshi Shima biografia
Masatoshi Shima (嶋正利 Shima Masatoshi, nacido el 22 de agosto de 1943 en Shizuoka, Japón) es uno de los diseñadores del primer microprocesador del mundo, el Intel 4004, junto con Ted Hoff y Federico Faggin.
Estudió Química orgánica en la Universidad de Tohoku en Sendai, Japón. Con bajas expectativas de empleo en el campo de la química, entra a trabajar en Busicom, un fabricante de calculadoras, donde se forma en desarrollo de software y diseño de circuitos digitales. Cuando Busicom decide utilizar circuitos LSI en sus calculadoras, contactaron con las compañías estadounidenses Mostek e Intel para recabar ayuda en su fabricación. El trabajo se adjudica a Intel, que por entonces era más un fabricante de memorias y disponía de las instalaciones necesarias para fabricar las puertas lógicas en chips MOS de alta densidad que precisaba Busicom. siguiendo el concepto inicial de Marcian "Ted" Hoff, Shima diseña el procesador 4004 en las oficinas de Intel con Hoff y Federico Faggin. Su empresa vende los derechos de uso del 4004 a Intel, con la excepción de su uso en calculadoras.
Intel diseña entonces el Intel 8008 por su propia cuenta, pero el chip fue un fracaso comercial, debido a diversas razones. Shima es contratado por Intel para diseñar el siguiente microprocesador, que se convirtió en el Intel 8080 (no está claro si Shima también estuvo implicado en la creación de los Intel 8086 y 8088). Posteriormente, Shima se fue a Zilog donde dedsarrolló el Zilog Z80, que hizo compatible a nivel de instrucciones con el Intel 8080. Le sucedió el procesador de 16 bits Zilog Z8000.1
Según compañeros de trabajo de Intel, Shima diseñó toda la lógica a nivel de transistor manualmente (en vez de en las puertas AND/OR y los registros). Los diagramas esquemáticos eran por lo tanto difíciles de leer, pero como los transistores eran dibujados de tal modo que parecían un plano del chip,2 esto ayudaba mucho a la hora de hacer el diseño físico chip. Sin embargo, según el propio Shima, la lógica fue probada en placas utilizando chips TTL, antes de ser traducida manualmente en equivalentes de transistores MOS.

BIOGRAFIA DE STANLEY MAZOR
Resultado de imagen para stanley mazor biografia
Cuando Mazor era joven, su familia se trasladó a California , donde asistió a Oakland High School secundaria , completar la escuela secundaria en 1959. Luego se unió a la Universidad Estatal de San Francisco (San Francisco State University), con un título en matemáticas, con la afición de la diseño y construcción de helicópteros. Conoció a su futura esposa en San Francisco State University. Alrededor del mismo tiempo se interesó en las computadoras y aprendió a programar el equipo SFSU un IBM 1620 , y luego profesor asistente, enseñando a otros estudiantes de programación ese equipo.
Su carrera comenzó en 1964 se convirtió en programador en Fairchild Semiconductor , seguido de una posición como un diseñador de equipo en el Departamento de Investigación Digital, que co-patentó el lenguaje de programación de alto nivel "símbolo".

En 1969 fue fundada la empresa de un año antes de Intel Corporation , pronto se nombrará a trabajar con Marciano Hoff en un proyecto para ayudar a definir la arquitectura de un microprocesador basado en un concepto desarrollado previamente por Hoff. El fabricante japonés de calculadoras Busicom pidió a Intel para completar el proyecto y producir un nuevo conjunto de chips. Acreditado con Faggin, Hoff, y Masatoshi Shima de Busicom como co-inventores, Mazor asistidos en la definición de la arquitectura y el conjunto de instrucciones para el nuevo chip entonces revolucionaria, el Intel 4004 .

Aunque no hubo resistencia inicial por parte de la comercialización de Intel para subir al estrado y venta de estos productos para el destinatario final, Hoff y Mazor se asociaron con Faggin, diseñador del 4004 y líder del proyecto, y participaron en una campaña activa de la publicidad industrias, que ayudan en la definición de la estrategia de apoyo que la compañía podría tomar el relevo. Intel anunció finalmente el 4004 en 1971.

Después de trabajar como un diseñador de equipo durante seis años, Mazor se instaló en Bruselas , donde continuó trabajando para Intel, que proporciona soporte de ingeniería para la usuarios de los productos de la compañía. Volvió a California el año siguiente, a partir de enseñar inicialmente en el grupo de entrenamiento técnico en Intel, y luego a la Universidad de Stanford y la Universidad de Santa Clara .
















martes, 3 de mayo de 2016

4.Teclado




Teclado

En informática, un teclado es un dispositivo o periférico de entrada, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora.

Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados, al estilo teletipo, se convirtió en el principal dispositivo de entrada para las computadoras.
Un teclado realiza sus funciones mediante un micro controlador. Estos micro controladores tienen un programa instalado para su funcionamiento, estos mismos programas son ejecutados y realizan la exploración matricial de las teclas cuando se presiona alguna, y así determinar cuales están pulsadas.


Para lograr un sistema flexible los micro controladores no identifican cada tecla con su carácter serigrafiado en la misma sino que se adjudica un valor numérico a cada una de ellas que sólo tiene que ver con su posición física. El teclado latinoamericano sólo da soporte con teclas directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la letra eñe y los signos de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una tecla de extensión de grafismos. Por lo demás el teclado latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos de la norma ASCII.




Nacido en Mooresburgy, Pennsylvania, Sholes se trasladó a la cercana Danville siendo un adolescente, donde trabajaba como aprendiz de impresor. Después de completar su aprendizaje, Sholes se trasladó a Milwaukee, Wisconsin, donde se convirtió en editor del periódico "Wisconsin Enquirer". Metido en política, fue miembro del Senado y de la Asamblea del estado. Sirvió al presidente Abraham Lincoln.

La máquina de escribir

Tras haber patentado una máquina de contar billetes junto a Samuel W. Souléen en 1864; un inventor aficionado, Carlos Glidden le sugirió la posibilidad de convertir su aparato en una máquina de escribir. Cuatro años después el 23 de junio de 1868 patentó su idea, a la que siguió dedicando gran parte de su tiempo. En 1872 vendió la patente (US 79.265) de su máquina por 12.000 dólares a Densmore and Yost, que llegó a un acuerdo con E. Remington and Sons (entonces fabricantes de máquinas de coser) para comercializar la que fue conocida como «Máquina de escribir Sholes and Glidden». Remington empezó la producción de su primera máquina de escribir el 1 de mayo de 1873 en Ilion (Nueva York).

Sholes continuó trabajando en nuevos desarrollos para la máquina de escribir durante la década de los sesenta, entre los logros obtenidos se encuentran el teclado QWERTY en 1873 y el desarrollo del mecanismo que traslada el golpe al tipo que ha de imprimirse, inspirado en el funcionamiento de las teclas del piano. También desarrolló el rodillo sobre el que se sitúa el papel, un contrapeso para que el rodillo y el papel se fueran desplazando, la palanca para cambiar de línea y el espaciador.

3.Mouse



Mouse






El ratón o mouse (en inglés, pronunciado [maʊs]) es un dispositivo apuntador utilizado para facilitar el manejo de un entorno gráfico en una computadora. Generalmente está fabricado en plástico, y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero, cursor o flecha en el monitor. El ratón se puede conectar de forma alámbrica (puertos PS/2 y USB) o inalámbricamente (comunicación inalámbrica o wireless, por medio de un adaptador USB se conecta a la computadora y esta manda la señal al ratón, también pueden ser por medio de conectividad bluetooth oinfrarojo).
Es un periférico de entrada imprescindible en una computadora de escritorio para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica demuestra todavía su vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.
El funcionamiento de un ratón depende de la tecnología utilizada para capturar el movimiento al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y transmitir esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clics, mediante pulsaciones en algún botón o botones. Para su manejo, el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clics para la mayoría de las tareas.

Biografía de Douglas Carl Engelbart

Como operario de radar en las Filipinas durante la Segunda Guerra Mundial,Engelbart se inspiró en un artículo de Vannevar Bush, As We May Think, para buscar la manera de usar las computadoras para mejorar la sociedad. Cuando terminó la guerra, y siguiendo esta idea, Engelbart renunció a su trabajo como ingeniero y se fue a estudiar a UC Berkeley.
En 1957 ingresó como investigador al Stanford Research Institute y en 1959 ascendió al cargo de Director del Augmentation Research Center, que el fundó. En 1962 Engelbart, contando con un financiamiento de la Fuerza Aérea de los Estados Unidos de Norteamérica, publicó su trabajo «Augmenting Human Intellect: A Conceptual Framework» (Aumentando el Intelecto Humano: Un Marco Conceptual).2 En este consideraba que las organizaciones tenían una capacidad para resolver problemas que dependía de características genéticas del ser humano y de elementos técnicos y no técnicos, como el lenguage, las costumbres, las herramientas y los procedimientos; éstos se desarrollaban lentamente, a lo largo de siglos, pero, la tecnología electrónica digital estaba creciendo en forma explosiva. La propuesta consideraba que el intelecto colectivo aumentaría si se aceleraba la evolución de los diferentes elementos técnicos y no técnicos para aprovechar la nueva tecnología. En 1962 Engelbart se entrevistó con J.C.R. Licklider, quien había publicado un trabajo titulado «Simbiosis Hombre-Computador» y que entonces tenía el cargo de Director de la ARPA (Agencia de Investigación de Proyectos Avanzados) y se había propuesto impulsar el desarrollo de tecnologías de avanzada para mejorar la relación entre el hombre y las computadoras. Licklider accedió a financiar el trabajo de Engelbart. Durante los años siguientes el equipo liderado por Engelbart se dedicó a crear la tecnología necesaria para mejorar la forma de trabajar con las computadoras y así aumentar el intelecto humano. Él fue la fuerza motriz detrás del diseño del primer sistema en línea, oN-Line System (NLS), en el Stanford Research Institute. Junto con su equipo en el Augmentation Research Center desarrolló varios elementos básicos de la interfaz humana de las computadoras actuales, como pantallas con imágenes en bitsventanas múltiples, y software multiusuario. También fue el co-inventor del ratón, del que nunca recibió regalías.

El ratón, el invento más conocido de Engelbart fue descrito en 1967. Las pruebas que se realizaron demostraron que era más eficiente y efectivo que otros dispositivos que se diseñaron para realizar selecciones en la pantalla, como el lápiz de luz y el joystick; permitía interactuar en forma sencilla y práctica con las computadoras. Engelbart concibió este artefacto y el ingeniero Bill English, un miembro de su equipo, realizó el diseño detallado.
Engelbart solicitó una patente en 1967 y recibió en 1970, con el casco de madera con dos ruedas de metal (el ratón del ordenador), que se había desarrollado con Bill English, su ingeniero jefe, unos años antes. En la solicitud de patente se describe como un «indicador de posición XY para un sistema de visualización». Engelbart reveló más tarde que fue apodado el «mouse», porque la cola salió al final. Su grupo también llamado el cursor en la pantalla de un «error», pero no fue ampliamente adoptado este término.
Años más tarde, la mayoría de los miembros del equipo de Engelbart, incluyendo a English, se trasladaron a Xerox-PARC. Los investigadores allí redefinieron el uso del dispositivo integrándolo en un sistema que utilizaba símbolos icónicos en la pantalla.