martes, 24 de noviembre de 2015

COMPUTADORAS

Historia De Las Computadoras.

Las computadoras aparecen a finales de la década de 1950.
La computadora resulta ser un medio mecánico (electrónico, de hecho) para representar descripciones libre de ambigüedad y obtener un resultado útil.
Más aún, podría decirse que la computadora aparece cuando los niveles tecnológicos (electrónico fundamentalmente) alcanzan el grado de avance y refinamiento que ya tenían las ideas y conceptos matemáticos, lo cual sucede a mediados del siglo XX.
Uno de los problemas que siempre nos ha cautivado es el relacionado con la actividad de contar y con el concepto de número.  De ahí que las primeras herramientas que se inventaron en esté ingenio mecánico capaz de liberarnos de la pesada tarea de calcular a mano.
El abaco, es la primera calculadora mecánica, aunque no se puede llamar computadora porque carece de un elemento fundamental, el   programa,   que no se logrará hasta mucho tiempo después.
Primera Generación

El arranque de la industria de la computación se caracteriza por un gran desconocimiento de las capacidades y alcances de las computadoras.  Por ejemplo, según un estudio de esa época, se suponía que iban a ser necesarias alrededor de 20 computadoras para saturar la capacidad del mercado de Estados Unidos en el campo del procesamiento de datos.  Esta primera etapa abarcó la década de 1950 y se conoce como la primera generación de computadoras.  Las maquinas de esta generación cumplen los requisitos antes mencionados de la siguiente manera:
Su construcción estaba basada en circuitos de tubos de vacío o bulbos.
La comunicación se establecía por medio de programación en lenguaje máquina (binario).
Estos aparatos son grandes y costosos (Decenas o cientos de miles de dolares).
En 1951 aparece la primera computadora comercial, es decir fabricada para ser vendida: La INIVAC I (UNIVersal Computer).  Esta máquina, que disponía de 1000 palabras de memoria central y podía leer cintas magnéticas, se utilizó para procesar los datos del censo de 1950 en Estados Unidos.
Durante la primera generación ( y hasta parte de la tercera), las unidades de entrada estaban por completo dominadas por las tarjetas perforadas.  A la UNIVAC I siguió una máquina desarrollada por IBM(Internacional Bussiness Machines), que apenas incursionaba en el campo; es la IBM 701.  Hubo otras máquinas que competían con ella, de diferentes compañías.  La más exitosa de las computadoras fue el modelo 650 de IBM, de la cual se produjeron varios cientos.
Esta tenía un sistema de memoria secundaria llamado tambor magnético, antecesor de  los discos empleados actualmente.
La competencia contestó con modelos UNIVAC 80 y 90, que pueden situarse ya en los inicios de la segunda generación.

Segunda generación

Cerca de la década de 1960 las computadoras seguían en constante evolución, reduciendo su tamaño y aumentado sus capacidades de procesamiento. Al mismo tiempo se iba definiendo con mayor claridad una nueva ciencia: la de comunicarse con la computadora, que recibía el nombre de programación de sistemas (software de base).
En esta etapa puede hablarse ya de la segunda generación de computadoras, que se caracteriza por los siguientes aspectos primordiales.
Estaban construidas por circuitos de transistores.
Se programaban con nuevos lenguajes llamados de “alto nivel”.
En general las computadoras de la segunda generación son de tamaño más reducido y menor costo que las anteriores. En la segunda generación hubo mucha competencia y muchas compañías nuevas, y se contaba con maquinas bastante avanzadas para su época, como la serie 5000 de Burroughs y la máquina ATLAS, de la Universidad de Manchester. Entre los primeros modelos que se pueden mencionar esta la Philco 212 y la UNIVAC M460.
IBM mejoro la 709 y produjo la 7090 (luego ampliada a la 7094), que gano el mercado durante la primera parte de la segunda generación. UNIVAC continuo con el modelo 1107, mientras NRC (National Cash Register) empezó a producir maquinas más pequeñas para proceso de datos comercial como la NCR 315.
RCA (Radio corporation of America) introdujo el modelo 501 y más tarde el RCA 601. Esta generación no duro mucho, solo cinco años.


Tercera Generación


A mediados de la década de 1960, con la aparición de nuevas y mejores formas de comunicarse con la máquina, además de procesos adicionales en electrónica, surge la tercera generación de computadoras.
Se inaugura con la presentación, en abril de 1964 , de la serie 360 de IBM, como culminación de una enorme estrategia comercial y de mercadotecnia.
Las características de la tercera generación consisten en :
Su fabricación electrónica está basada en circuitos integrados: agrupamiento de circuitos de transistores grabados en milimétricas placas de silicio.
Su manejo es por medio de los lenguajes de control de los sistemas operativos.
Las computadoras de la serie IBM 360 (modelos 20, 22,30,40,50,65,75, 85, 90, 195 ) incluían técnicas especiales del manejo de procesador, unidades de cinta magnética para nueve canales, paquetes de discos magnéticos y otras características ahora usuales.
El sistema operativo de esta serie, llamado OS (Operative System), en varias configuraciones, incorporaba un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron es estándares.
Esta serie alcanzo un éxito enorme de tal forma que la gente en general, pronto llego a identificar el concepto de computadora con IBM. Sin embargo sus maquinas no fueron las únicas, ni necesariamente las mejores. También existían CDC serie 600 modelo 6600, que durante varios años fue considerada la mas rápida.
A mediados de 1970, IBM produjo la serie 370 (modelos 115, 125, 135, 145, 158, 168) como mejora de la serie 360. UNIVAC compitio con los modelos 1108 y 1110, CDC inauguro se serie 7000 con el modelo 7600, reformando después para introducir el modelo Cyber.
Y así varias empresas continuaron compitiendo con nuevas aportaciones.
Minicomputadoras
A mediados de la década de 1970, surgió un gran mercado para computadoras de tamaño mediano, o minicomputadoras, no tan costosas como las grandes máquinas y con una gran capacidad de proceso. En un principio, el mercado de estas maquinas fue dominado por la serie PDP-8 de DEC (Digital Equipment Corporation).
Las computadoras de la serie IBM 360 (modelos 20, 22,30,40,50,65,75, 85, 90, 195 ) incluyan técnicas especiales del manejo de procesador, unidades de cinta magnética para nueve canales, paquetes de discos magnéticos y otras características Haza usuales.

El sistema operativo de esta serie, llamado OS (Operative System), en varias configuraciones, incorporaba un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron es estándares.

Esta serie alcanzo un éxito enorme de tal forma que la gente en general, pronto llego a identificar el concepto de computadora con IBM. Sin embargo sus maquinas no fueron las únicas, ni necesariamente las mejores. También existían CDC serie 600 modelo 6600, que durante varios años fue considerada la mas rápida.

A mediados de 1970, IBM produjo la serie 370 (modelos 115, 125, 135, 145, 158, 168) como mejora de la serie 360. UNIVAC compitió con los modelos 1108 y 1110, CDC inauguro se serie 7000 con el modelo 7600, reformando después para introducir el modelo Cyber.

Y así varias empresas continuaron compitiendo con nuevas aportaciones.
Otras minicomputadoras fueron la serie PDP-11 de DEC , remplazada luego por las màquinas VAX (Virtual Addres eXtended) de la misma compañia: los modelos Nova y Eclipse de Data General; las series 3000 y 9000 de Hewlett-Packard, en varias configuraciones y el modelo 34 de IBM, que luego fue remplazado por los modelos 36 y 38.
En la ahora ex Uniòn Soviètica fueron de amplio uso las computadoras de la serie SU (sistema unificado Ryad), asì mismo los países ahora ex socialistas desarrollaron una serie de computadoras dedicadas al control industrial, además de las máquinas de la serie Mink y BESM.
En la actualidad el mercado de las minicomputadoras es muy dinámico, sobre todo para el uso de servidores.

Cuarta generación



El adelanto de la microelectrónica prosiguió a una velocidad impresionante, y por el año de 1972, surgió en el mercado una nueva familia de circuitos integrados de alta densidad, que recibieron el nombre de microprocesadores.  Las microcomputadoras  diseñadas con base en estos circuitos de semiconductores eran extremadamente pequeñas y baratas, por lo que su uso se extendió al mercado de consumo.

Sin embargo desde el punto de vista estricto, hace poco ingresamos a la cuarta generación , porque en la que podía llamarse la segunda parte de la tercera generación solo hubo adelantos significativos en el punto A y no en el punto B.  Con el uso masivo de internet ya también ya se puede hablar de un cambio sustancial en el punto B.
Por los que criterios son:
Microelectrónica de alta integración y distribución de tareas específicas mediante microprocesadores acoplados.
Acceso a la red desde una computadora personal, tanto en forma local como global.

La siguiente generación
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de introducir maquinas con innovaciones reales en los dos criterios mencionados, aunque a su termino en 1993 los resultados fueron bastante pobres.  La ACM Association for Computing Machering, que junto con la Computer Society de la IEEE (Institute of Electrical and Electronics Engineers), después de leer detallados artículos, concluye que esta es una generación perdida.

En Estados Unidos estuvo en actividad un programa de desarrollo que perseguía objetivos semejantes, que pueden resumirse de la siguiente forma:
Procesamiento en paralelo mediante arquitecturas y diseños especiales.
Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro de la computación es muy interesante, y se puede esperar que esta ciencia sigua siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.  Talvez las dos tecnologías que definirán los inicios del siglo XXI serán la computación y la ingeniería genética, y esta última depende en buena medida de las tecnologías de computo para proceder.


sábado, 17 de octubre de 2015

Hardware

HARDWARE
El término hardware se refiere a todas las partes físicas de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora». El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica, un reproductor multimedia o cualquier otro electrónico que procese datos poseen hardware (y software). La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el funcionamiento normal del equipo, y complementario, el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (UCP o CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados. Su abreviatura es Hw.

CLASIFICACION DEL HARDWARE:
Una de las formas de clasificar el hardware es en dos categorías: por un lado, el básico, que abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima a una computadora; y por otro lado, el hardware complementario, que, como su nombre indica, es el utilizado para realizar funciones específicas (más allá de las básicas), no estrictamente necesarias para el funcionamiento de la computadora.
Necesita un medio de entrada de datos, la unidad central de procesamiento, la memoria RAM, un medio de salida de datos y un medio de almacenamiento constituyen el hardware básico.
Los medios de entrada y salida de datos estrictamente indispensables dependen de la aplicación: desde el punto de vista de un usuario común, se debería disponer, al menos, de un teclado y un monitor para entrada y salida de información, respectivamente; pero ello no implica que no pueda haber una computadora (por ejemplo controlando un proceso) en la que no sea necesario teclado ni monitor; bien puede ingresar información y sacar sus datos procesados, por ejemplo, a través de una placa de adquisición/salida de datos.
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas y almacenadas en su memoria; consisten básicamente en operaciones aritmético-lógicas y de entrada/salida. Se reciben las entradas (datos), se las procesa y almacena (procesamiento), y finalmente se producen las salidas (resultados del procesamiento). Por ende todo sistema informático tiene, al menos, componentes y dispositivos hardware dedicados a alguna de las funciones antedichas; a saber:
  1. Procesamiento: unidad central de procesamiento
  2. Almacenamiento: Memorias
  3. Entrada: Periféricos de entrada (E)
  4. Salida: Periféricos de salida (S)
  5. Entrada/Salida: Periféricos mixtos (E/S)
Desde un punto de vista básico y general, un dispositivo de entrada es el que provee el medio para permitir el ingreso de información, datos y programas (lectura); un dispositivo de salida brinda el medio para registrar la información y datos de salida (escritura); la memoria otorga la capacidad de almacenamiento, temporal o permanente (almacenamiento); y la CPU provee la capacidad de cálculo y procesamiento de la información ingresada (transformación).
Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como de salida; el ejemplo más típico es el disco rígido (ya que en él se lee y se graba información y datos).

Unidad central de procesamiento

Un servidor de red o una máquina de cálculo de alto rendimiento (supercomputación), puede tener varios, incluso miles de microprocesadores trabajando simultáneamente o en paralelo (multiprocesamiento); en este caso, todo ese conjunto conforma la CPU de la máquina.La Unidad Central de Procesamiento, conocida por las siglas en inglés CPU, es el componente fundamental de la computadora, encargado de interpretar y ejecutar instrucciones y de procesar datos. En computadores modernos, la función de la CPU la realiza uno o más microprocesadores. Se conoce como microprocesador a una CPU que es manufacturada como un único circuito integrado.
Las unidades centrales de proceso (CPU) en la forma de un único microprocesador no sólo están presentes en las computadoras personales (PC), sino también en otros tipos de dispositivos que incorporan una cierta capacidad de proceso o "inteligencia electrónica", como pueden ser: controladores de procesos industriales, televisores, automóviles, calculadores, aviones, teléfonos móviles, electrodomésticos, juguetes y muchos más. Actualmente los diseñadores y fabricantes más populares de microprocesadores de PC son Intel y AMD; y para el mercado de dispositivos móviles y de bajo consumo, los principales son SamsungQualcomm,Texas InstrumentsMediaTekNVIDIA e Intel.
La gran mayoría de los circuitos electrónicos e integrados que componen el hardware del computador van montados en la placa madre.
Adicionalmente, sobre el disipador se acopla uno o dos ventiladores (raramente más), destinados a forzar la circulación de aire para extraer más rápidamente el calor acumulado por el disipador y originado en el microprocesador. Complementariamente, para evitar daños por efectos térmicos, también se suelen instalar sensores de temperatura del microprocesador y sensores de revoluciones del ventilador, así como sistemas automáticos que controlan la cantidad de revoluciones por unidad de tiempo de estos últimos.
El microprocesador se monta en la llamada placa base, sobre un zócalo conocido como zócalo de CPU, que permite las conexiones eléctricas entre los circuitos de la placa y el procesador. Sobre el procesador ajustado a la placa base se fija un disipador térmico de un material con elevada conductividad térmica, que por lo general es de aluminio, y en algunos casos de cobre. Éste es indispensable en los microprocesadores que consumen bastante energía, la cual, en gran parte, es emitida en forma de calor: en algunos casos pueden consumir tanta energía como una lámpara incandescente (de 40 a 130 vatios).

Placa principal, placa madre o placa base

La placa base, también conocida como placa madre o principal o con los anglicismos motherboard o mainboard, es un gran circuito impreso sobre el que se suelda el chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás componentes: Procesadormódulos de memoria RAMtarjetas gráficastarjetas de expansión, periféricos de entrada y salida. Para comunicar esos componentes, la placa base posee una serie de buses mediante los cuales se trasmiten los datos dentro y hacia afuera del sistema.
La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye a la mayoría de las funciones básicas (vídeo, audio, red, puertosde varios tipos), funciones que antes se realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición de datos, etc.
También, la tendencia en los últimos años es eliminar elementos separados en la placa base e integrarlos al microprocesador. En ese sentido actualmente se encuentran sistemas denominados System on a Chip que consiste en un único circuito integrado que integra varios módulos electrónicos en su interior, tales como un procesador, un controlador de memoria, una GPUWi-FiBluetooth, etc. La mejora más notable en esto está en la reducción de tamaño frente a igual funcionalidad con módulos electrónicos separados. La figura muestra una aplicación típica, en la placa principal de un teléfono móvil.
Las principales funciones que presenta un placa base son:
  • Conexión física
  • Administración, control y distribución de energía eléctrica
  • Comunicación de datos
  • Temporización
  • Sincronismo
  • Control y monitoreo

Memoria RAM

La RAM es la memoria utilizada en una computadora para el almacenamiento transitorio y de trabajo (no masivo). En la RAM se almacena temporalmente la información, datos y programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta. La memoria RAM es conocida como Memoria principal de la computadora, también como "Central o de Trabajo"; a diferencia de las llamadas memorias auxiliares, secundarias o de almacenamiento masivo (como discos duros, unidades de estado sólido, cintas magnéticas u otras memorias).
Las memorias RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente su contenido al interrumpir su alimentación eléctrica.
Las más comunes y utilizadas como memoria central son "dinámicas" (DRAM), lo cual significa que tienden a perder sus datos almacenados en breve tiempo (por descarga, aún estando con alimentación eléctrica), por ello necesitan un circuito electrónico específico que se encarga de proveerle el llamado "refresco" (de energía) para mantener su información.
La memoria RAM de un computador se provee de fábrica e instala en lo que se conoce como “módulos”. Ellos albergan varios circuitos integrados de memoria DRAM que, conjuntamente, conforman toda la memoria principal.

SOFTWARE

SOFTWARE
Se conoce como software al equipo lógico o soporte lógico de un sistema informático, que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el llamado software de sistema, tal como el sistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.
El anglicismo "software" es el más amplia mente difundido al referirse a este concepto, especialmente en la jerga técnica; en tanto que el término sinónimo «logicial», derivado del término francés logiciel, es utilizado mayormente en países y zonas de influencia francesa. Su abreviatura es Sw.

PROCESO DE CREACIÓN DEL SOFTWARE
Se define como proceso al conjunto ordenado de pasos a seguir para llegar a la solución de un problema u obtención de un producto, en este caso particular, para lograr un producto software que resuelva un problema específico.
El proceso de creación de software puede llegar a ser muy complejo, dependiendo de su porte, características y criticidad del mismo. Por ejemplo la creación de un sistema operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo programa (por ejemplo, la resolución de una ecuación de segundo orden), éste puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es así que normalmente se dividen en tres categorías según su tamaño (líneas de código) o costo: de «pequeño»«mediano» y «gran porte». Existen varias metodologías para estimarlo, una de las más populares es el sistema COCOMO que provee métodos y un software (programa) que calcula y provee una aproximación de todos los costos de producción en un «proyecto software» (relación horas/hombre, costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.).
Considerando los de gran porte, es necesario realizar complejas tareas, tanto técnicas como de gerencia, una fuerte gestión y análisis diversos (entre otras cosas), la complejidad de ello ha llevado a que desarrolle una ingeniería específica para tratar su estudio y realización: es conocida como Ingeniería de Software.
En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un avezado analista-programador solitario) pueden realizar la tarea. Aunque, siempre en casos de mediano y gran porte (y a veces también en algunos de pequeño porte, según su complejidad), se deben seguir ciertas etapas que son necesarias para la construcción del software. Tales etapas, si bien deben existir, son flexibles en su forma de aplicación, de acuerdo a la metodología o proceso de desarrollo escogido y utilizado por el equipo de desarrollo o por el analista-programador solitario (si fuere el caso).
Los «procesos de desarrollo de software» poseen reglas preestablecidas, y deben ser aplicados en la creación del software de mediano y gran porte, ya que en caso contrario lo más seguro es que el proyecto no logre concluir o termine sin cumplir los objetivos previstos, y con variedad de fallos inaceptables (fracasan, en pocas palabras). Entre tales «procesos» los hay ágiles o livianos (ejemplo XP), pesados y lentos (ejemplo RUP), y variantes intermedias. Normalmente se aplican de acuerdo al tipo y porte del software a desarrollar, a criterio del líder (si lo hay) del equipo de desarrollo. Algunos de esos procesos son Programación Extrema (en inglés eXtreme Programming o XP), Proceso Unificado de Rational (en inglés Rational Unified Process o RUP), Feature Driven Development (FDD), etc.
Cualquiera sea el «proceso» utilizado y aplicado al desarrollo del software (RUP, FDD, XP, etc), y casi independientemente de él, siempre se debe aplicar un «modelo de ciclo de vida».
Se estima que, del total de proyectos software grandes emprendidos, un 28% fracasan, un 46% caen en severas modificaciones que lo retrasan y un 26% son totalmente exitosos. 
Cuando un proyecto fracasa, rara vez es debido a fallas técnicas, la principal causa de fallos y fracasos es la falta de aplicación de una buena metodología o proceso de desarrollo. Entre otras, una fuerte tendencia, desde hace pocas décadas, es mejorar las metodologías o procesos de desarrollo, o crear nuevas y concientizar a los profesionales de la informática a su utilización adecuada. Normalmente los especialistas en el estudio y desarrollo de estas áreas (metodologías) y afines (tales como modelos y hasta la gestión misma de los proyectos) son los ingenieros en software, es su orientación. Los especialistas en cualquier otra área de desarrollo informático (analista, programador, Lic. en informática, ingeniero en informática, ingeniero de sistemas, etc.) normalmente aplican sus conocimientos especializados pero utilizando modelos, paradigmas y procesos ya elaborados.
Es común para el desarrollo de software de mediano porte que los equipos humanos involucrados apliquen «metodologías propias», normalmente un híbrido de los procesos anteriores y a veces con criterios propios.
El proceso de desarrollo puede involucrar numerosas y variadas tareas, desde lo administrativo, pasando por lo técnico y hasta la gestión y el gerenciamiento. Pero, casi rigurosamente, siempre se cumplen ciertas etapas mínimas; las que se pueden resumir como sigue:
  • Captura, elicitación , especificación y análisis de requisitos (ERS)
  • Diseño
  • Codificación
  • Pruebas (unitarias y de integración)
  • Instalación y paso a producción
  • Mantenimiento
En las anteriores etapas pueden variar ligeramente sus nombres, o ser más globales, o contrariamente, ser más refinadas; por ejemplo indicar como una única fase (a los fines documentales e interpretativos) de «análisis y diseño»; o indicar como «implementación» lo que está dicho como «codificación»; pero en rigor, todas existen e incluyen, básicamente, las mismas tareas específicas.
En el apartado 4 del presente artículo se brindan mayores detalles de cada una de las etapas indicadas.

miércoles, 16 de septiembre de 2015

COMENTARIO DEL VIDEO

https://www.youtube.com/watch?v=f3IUVvJ2XgI


este video se trata de los transitores, la forma como los describe y tambien cuenta la historia de la creacion y evolucion de los transitores

domingo, 6 de septiembre de 2015

ENCUESTAS DEL PROYECTO










linteric pasos

LINTERIC:

  1. 3 LEDS
  2. CARTON
  3. PEGAMENTO
  4. PILAS
  5. BLONDAS
  6. HOJA DECORATIVA
  7. ESMALTE
  8. CABLE
  9. ESTAÑO

PROCEDIMIENTO
  • PRIMERO CORTAMOS LOS CABLES Y BAÑAMOS LAS PUNTAS CON ESTAÑO
  •  LUEGO LO CONECTAMOS EN LA BASE DE LAS PILAS
  • Y SOLDAMOS
  • CORTAMOS EL CARTON Y PASAMOS LOS CABLES POR LOS DOS HUECOS
  • DESPUES CONECTAMOS A LOS LEDS
  • Y PONEMOS LAS PILAS A VER SI FUNCIONAN
  • Y LISTO AHORA ES DEPENDE DE QUE TAN CREATIVA SEAS PARA PODER HACER LA DECORACION DE TU LINTERNA 

PROYECTO LINTERIC