Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos.
martes, 3 de septiembre de 2019
Las ciencias de la computación teórica (TCS) es una división o un subconjunto de las ciencias de la computación y las matemáticas que se enfoca en aspectos más abstractos o matemáticos de la computación. Estas divisiones y subconjuntos incluyen análisis de algoritmos y semántica formal de lenguajes de programación. Técnicamente, además de estos dos, hay cientos de divisiones y subconjuntos. Cada una de las múltiples partes tienen sus propios líderes personales individuales (de popularidad) y hay muchas asociaciones y grupos sociales profesionales y publicaciones de distinción.ohh
lunes, 2 de septiembre de 2019
En 1960, había suficientemente cuerpo de conocimiento que ameritaba la creación de departamentos académicos y programas de grado universitario para esta disciplina.[4] IBM es reconocida como la marca que formó parte de la revolución de las ciencias de la computación durante ese tiempo. IBM (abreviación de International Business Machines) lanzó la IBM 704[25] y más tarde la IBM 709[26] computadoras, que fueron ampliamente utilizadas durante el período de exploración de este tipo de dispositivos. "Sin embargo, el trabajo con la IBM [equipo] era frustrante ... si te equivocas en una letra de alguna instrucción, el programa se arruinaría, y se tendría que empezar todo el proceso otra vez".[21] Durante la década de 1950, la disciplina de las ciencias de la computación estaba en su etapa de desarrollo, y estos problemas eran algo común. El tiempo ha dado mejoras significativas en la capacidad de uso y la eficacia de la tecnología de la computación. La sociedad moderna ha presenciado un cambio significativo en los usuarios de la tecnología en cómputo, de ser utilizada únicamente por expertos, profesionales y científicos, a una base de usuarios que es casi omnipresente a la teoría con la cual se desarrolló y funciona este tipo de tecnología. Inicialmente, las computadoras eran bastante costosas, y era necesario un cierto grado de ayuda humana para el uso eficiente - en parte de operadores de computadoras profesionales. Como la adopción equipo se hizo más generalizado y asequible, se necesitaba menos asistencia humana en el uso común.
domingo, 1 de septiembre de 2019
La historia de la ciencia de la computación antecede a la invención del computador digital moderno. Antes de la década de 1920, el término computador se refería a un ser humano que realizaba cálculos.[8] Los primeros cimientos de lo que se convertiría en ciencias de la computación son anteriores a la invención de la computadora digital moderna. Se trataba de máquinas para el cálculo de las tareas numéricas fijas, como el ábaco han existido desde la antigüedad, ayudando en cálculos tales como la multiplicación y la división. Además, los algoritmos para realizar cálculos han existido desde la antigüedad, incluso antes de que se crearan equipos de computación sofisticados. Los antiguos sánscritos tratadistas Shulba Sutras, o "Reglas de la cuerda", es un libro de algoritmos escritos en 800 a. C. para la construcción de objetos geométricos como altares utilizando una clavija y cuerda, un precursor temprano del campo moderno de la geometría computacional.
sábado, 31 de agosto de 2019
Las ciencias de la computación son las ciencias formales que abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales.[1][2][3] El cuerpo de conocimiento de las ciencias de la computación es frecuentemente descrito como el estudio sistemático de los procesos algorítmicos que describen y transforman información: su teoría, análisis, diseño, eficiencia, implementación, algoritmos sistematizados y aplicación.[4] En términos más específicos se trata del estudio sistemático de la factibilidad, estructura, expresión y mecanización de procedimientos metódicos (o algoritmos) que subyacen en la adquisición, representación, procesamiento, almacenamiento, comunicación y acceso a la información. La información puede estar codificada en forma de bits en una memoria de computadora, o en algún otro objeto como, como los genes y proteínas en una célula biológica.[5] Existen diversas ramas o disciplinas dentro de las ciencias de la computación; algunos resaltan los resultados específicos del cómputo (como los gráficos por computadora), mientras que otros (como la teoría de la complejidad computacional) se relacionan con propiedades de los algoritmos usados al realizar cómputo; y otros se enfocan en los problemas que requieren la implementación de sistemas computacionales. Por ejemplo, los estudios de la teoría de lenguajes de programación describen un cómputo, mientras que la programación de computadoras aplica lenguajes de programación específicos para desarrollar una solución a un problema computacional específico. Un computólogo se especializa en teoría de la computación y en el diseño e implementación de sistemas de computacionales.[6] Según Peter J. Denning, la cuestión fundamental en que se basa la ciencia de la computación es: «¿Qué puede ser (eficientemente) automatizado?».[7]
viernes, 30 de agosto de 2019
Ética de la computación: principios de funcionalidad y diseño: Una ética de la computación es necesaria, y hoy en día insoslayable, para garantizar la construcción ética, democrática y participativa de las tecnologías computacionales y, con ellas, de la sociedad de la información que caracteriza a un conjunto cada vez más creciente de grupos sociales por todo el planeta. Sólo desde un estudio pormenorizado de las características y posibilidades de las dichas tecnologías se puede abordar el trabajo de justificación de la singularidad de la ética de la computación y el de la elaboración de sus principios generales. Aquí se presentan estos principios señalando su importancia para la evaluación constructiva de las tecnologías computacionales y defendiendo su singularidad frente a otros marcos éticos, sin que ello menoscabe las vías de articulación y justificación de los mismos con los principios generales de marcos macroéticos como la infoética o la teoría de la justicia. Palabras clave: código, software, ética
jueves, 29 de agosto de 2019
Fases o etapas del ciclo de vida de una computadora. Obtención de materiales: Este proceso es llevado a cabo por aquellas compañías o empresas dedicadas al área de obtención de materiales y el delicado proceso que supone la preparación de los mismos para el comercio.Producción de componentes y diseño: La fabricación de los componentes que integrarán el ordenador. Uso del ordenador y diseño: Una vez el ordenador está listo para vender, los consumidores empiezan a adquirirlos de las tiendas y llevarlos a sus hogares, empresas, negocios u oficinas. Allí, el promedio de vida es de aproximadamente tres años, sin tomar en cuenta los sectores sociales más pobres y los países no desarrollados, donde el período suele ser más elevado.
miércoles, 28 de agosto de 2019
TIPOS DE COMPUTADORAS Se clasifican de acuerdo al principio de operación de Analógicas y Digitales. COMPUTADORA ANALÓGICA Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware). COMPUTADORA DIGITAL Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: ?1? ó ?0?. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina.
martes, 27 de agosto de 2019
Quinta Generación :En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera: Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. Manejo de lenguaje natural y sistemas de inteligencia artificial. El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.
lunes, 26 de agosto de 2019
Tercera generación:
Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3
Las características de esta generación fueron las siguientes:
- Su fabricación electrónica esta basada en circuitos integrados.
- Su manejo es por medio de los lenguajes de control de los sistemas operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).
Cuarta Generación
Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.
En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.
domingo, 25 de agosto de 2019
Primera Generación:En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características: Estas máquinas estaban construidas por medio de tubos de vacío. Eran programadas en lenguaje de máquina. En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares). Segunda Generación:Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas. Las características de la segunda generación son las siguientes:Están construidas con circuitos de transistores.Se programan en nuevos lenguajes llamados lenguajes de alto nivel. En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.
sábado, 24 de agosto de 2019
Los inicios de la computación El antecedente más remoto del computador es el ábaco, desarrollado en China. Aunque el computador personal fue creado en 1981, sus inicios se remontan a varias décadas atrás y sus antecedentes a hace más de cuatro mil años. Esto, porque el origen de la informática no es la electrónica sino el perfeccionamiento de los cálculos matemáticos, que con el tiempo permitió el desarrollo del sistema binario, el lenguaje en que se programan los computadores, que está basado en la combinación de números ceros y unos (0 y 1). 2500 a.C. – El antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones de cálculo. 2000 a.C. – En el “I-Ching, o Libro de las mutaciones”, también de origen chino, se encuentra la primera formulación del sistema binario. 600 a.C. – El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo. 500 a.C. – Los romanos usaron ábacos con piedrecitas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).
viernes, 23 de agosto de 2019
La máquina analítica es el diseño de un computador moderno de uso general realizado por el profesor británico de matemática Charles Babbage, que representó un paso importante en la historia de la informática. Fue inicialmente descrita en 1837, aunque Babbage continuó refinando el diseño hasta su muerte en 1871. La máquina no pudo construirse debido a razones de índole política pues hubo detractores por un posible uso de la máquina para fines bélicos. Computadores que fueran lógicamente comparables a la máquina analítica sólo pudieron construirse 100 años más tarde. Algunos piensan que las limitaciones tecnológicas de la época eran un obstáculo para construir la máquina de haberse obtenido financiación y apoyo político al proyecto.
jueves, 22 de agosto de 2019
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
miércoles, 21 de agosto de 2019
Las técnicas informáticas constituyen una tecnología especial y plantean, en consecuencia, cuestiones y consideraciones éticas y jurídicas específicas. Por ello es oportuno caracterizar la Ética de la Informática y mostrar porqué este campo dentro de la Ética profesional, es un subcampo emergente de especial importancia para los Ingenieros Informáticos, de este modo se trata el tema ético como una problemática insertada en la vida social y cotidiana del profesional de la informática.
martes, 20 de agosto de 2019
En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.
lunes, 19 de agosto de 2019
El mundo no estaba listo, y no lo estaría por cien años más. En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.
domingo, 18 de agosto de 2019
Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.
sábado, 17 de agosto de 2019
Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.
viernes, 16 de agosto de 2019
La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.
Suscribirse a:
Entradas (Atom)