El iWatch de Apple contará con infinidad de sensores para medir nuestra frecuencia cardiaca, actividad diaria e incluso la interacción con el entorno físico. Mucho más que un reloj para medir el tiempo, con un diseño a la altura de los últimos productos de la compañía capaz de sincronizarse con otros dispositivos iOS.
Este pseudo-reloj contaría con un tamaño reducido y un diseño elegante. Este diseño de la pantalla tan pequeño, no más de 4-5 centímetros, sería todo un desafío para los desarrolladores de software. Según los últimos rumores, el iWatch contaría con una versión adaptada de iOS 7, con un look&feel similar al SO del iPod nano de 6º generación, pero con muchas más características.
Entre sus principales funciones se baraja la posibilidad de poder contestar y recibir llamadas del iPhone directamente en el dispositivo, así como ver todas las notificaciones del centro de notificaciones. Las posibilidades son infinitas y otros dispositivos como Pebble nos muestran algunas ideas como poder controlar el reproductor de música, descubrir quién nos ha enviado un mensaje o incluso ser un disparador remoto para la cámara del dispositivos iOS al que se encuentre conectado.
Pero, ¿por qué quedarse ahí? El iWatch de Apple, además de mostrarnos la hora y servir como cronómetro y alarma, puede ser el complemento ideal para nuestro día a día. Después de observar los dispositivos complementarios que más de moda están en iOS, puede que Apple quiera su trozo del pastel. Fitbit, LG Smart Activity, Nike Fuelband y Jawbone UP entre muchos otros, nos proponen soluciones para monitorizar al detalle nuestra actividad diaria.
No es descabellado pensar que el iWatch de Apple contará con todos los sensores necesarios para, al menos, servir como podómetro y junto al software de Nike+,
poder ver la distancia recorrida día a día. Pero no tiene porque
quedarse solo con ello. Al igual que Nike Fuelband y Jawbone UP, iWatch
de Apple también mediría toda nuestra actividad diaria como realizar un
deporte específico o simplemente nuestra rutina. Todo ello con la
posibilidad de incluir una medición precisa del tiempo de sueño y su calidad, gracias a los sensores de movimiento que incluirían.
Aquí dejo un vídeo con una reciente noticia sobre el iWatch:
En alguna ocasión nos puede tocar revisar un ordenador con problemas. También nos puede ocurrir que estemos trabajando con equipos que no tengan instalado algunas de las aplicaciones que más usamos.
Por eso, nos puede hacer falta llevar en nuestra memoria USB programas portables de todas las aplicaciones que nos interese sin necesidad de instalarlas y configurarlas en el equipo que vayamos a usar. También evitamos tener que llevar CD's o tener que instalar en el disco duro del cliente determinados programas.
Las Aplicaciones portables son muy útiles, se pueden llevar en una memoria USB y utilizarlas en cualquier ordenador sin necesidad de instalar ningún programa.
Aquí os muestro algunos de los suits de aplicaciones portables más conocidas:
PortableApps Suite
Lupo PenSuite
WinPenPack
NirLauncher
Geek.Menu
LiberKey
En este articulo vamos a hablar de LiberKey.
LiberKey
Incluye algunas características únicas en el ámbito de aplicación portátil Suites, como herramientas dedicadas para asociaciones de archivos portátiles, accesos directos del escritorio portátiles y actualizaciones en línea de aplicaciones.
1 - Lo primero que debemos hacer es descargarnos el software.
2 - Lo iniciaremos para poder realizar la instalación.
3 - Le daremos a siguiente, entonces nos saldrá otra ventana en la que tendremos que aceptar la licencia para utilizar el software.
4- Por ultimo en la instalación guardaremos el software en la ubicación que queramos.
5 - Seguiremos hasta terminar con la instalación.
Como funciona el programa
1- Le damos a 'Descargar la lista de grupos disponibles' , nos saldrá una lista de programas y abajo un botón 'Instalar'. Le damos a dicho botón y empezara la descarga de todos los programas.
2- Aquí se muestra una imagen con forma de árbol donde están agrupados los programas por categorías, según el tipo que sean:
Después elegiremos la opción eliminar o añadir dependiendo de que aplicación nos interese o cual no.
Esta aplicación es muy conveniente llevarla en nuestro pen drive para instalar en cualquier PC la aplicación que mas nos interese.
Project Glass es un programa de investigación y desarrollo de Google para desarrollar unas gafas de realidad aumentada (HMD).3 El producto estará disponible para los desarrolladores de Google por 1500 $ el año 2013 mientras que la versión para consumidores estará lista en el 2014.
Esta es la lista completa de características de las Google Glass:
Imagen: Equivalente a una pantalla Full HD de 25 pulgadas a 2,5 metros Cámara: Fotos 5 MPx, vídeo 720p HD Sonido: Transductor por conducción ósea Conectividad: WiFi 820.11 b/g, Bluetooth Almacenamiento: 12 GB Batería: 1 día de duración con consumo normal
La imagen generada mediante proyección en el prisma transparente será equivalente a una pantalla Full HD de 25 pulgadas a 2,5 metros, aunque todavía quedan por resolver algunos detalles de usabilidad, en especial para las personas con problemas visuales
Las gafas inteligentes de Google contarán con una cámara de 5 megapíxeles que capturará fotos y grabará vídeo a resolución 720p, es decir HD.
El sistema de sonido no usará unos auriculares típicos, sino que se arriesga con la tecnología de transducción ósea. Esto significa que el sonido se convierte en vibraciones que son transmitidas directamente a los huesos de la cabeza (y el oído).
Aquí os dejo una impresionante demostración de la visión con unas Google Glass:
Aquí dejo también un enlace a la pagina oficial de las Google Glass:
La memoria RAM es la memoria principal del ordenador. Por ella pasan todos los datos que el procesador va a procesar.
Las memorias RAM funcionan con la ayuda de la electricidad , son volátiles, y por ello cuando no hay corriente no pierden los datos almacenados.
Cuando un modulo de memoria falla por completo, normalmente no arrancara el ordenador y hará que suenen unos pitidos por lo que sabremos que la memoria esta dañada. Pero puede ocurrir que esta memoria no este dañada en su totalidad y pueda tener algún pequeño fallo que si bien no hará que nuestro ordenador no arranque, puede generar muchos problemas.
En general los programas de chequeo de memoria funcionan de una manera similar, escriben diferentes patrones en la memoria y luego verifican si la lectura es igual.
Voy ha hablar sobre uno de estos programas de testeo de memoria, Prime 95.
Prime 95
Al iniciar el programa nos saldrán estos 3 posibles test :
Prime 95 es un programa que fuerza los componentes de nuestro ordenador para comprobar cómo responden. De esta forma podemos comprobar si algún componente no está funcionando como debería.
Para realizar esta pruebas deberemos seleccionar la pestaña "Options" y elegir la opción "Torture test".
Small FFTs
Este sirve para poner a "prueba" la CPU, es decir, con este será con el que mayor temperatura alcanzará nuestra CPU.
In-Place Large FFTs
Este pone a prueba tanto la CPU como la RAM pero no "fuerza" tanto la CPU como el anterior ni "fuerza" tanto la RAM como el siguiente test.
Blend
Este es el que pone a prueba la memoria RAM al completo, si lo pasáis sobre unas 12 horas y no os da ningún error es que vuestra ram es completamente estable a esas frecuencias.
Durante el proceso de análisis hay que vigilar la temperatura del ordenador con algún otro programa que nos ayude a hacerlo. Si vemos que la temperatura sube más de lo recomendado, deberemos de detener el análisis ya que podría suponer un problema muy grave. En este caso bajaremos las condiciones del test de tortura y volveremos a comenzar.
Y si después de un tiempo (2 horas aproximadamente) no os a dado ningún error lo podéis parar y veréis ,si todo ha ido a pedir de boca, una imagen como la siguiente.
HD Tune es un programa
que te permite realizar un diagnóstico de tu disco duro interno externo
o extraíble para comprobar su estado y prevenir futuros errores de
hardware que puedan llevarte a perder los datos del disco.
Funciones
Benchmark: mide el rendimiento
Información: muestra información detallada
Salud: comprueba el estado de salud mediante el uso de SMART
Error Scan: escanea la superficie de los errores
Muestra la Temperatura
Requisitos del sistema
Windows 2000, Windows XP, Windows XP 64-bit, Windows 2003 Server, Windows Vista (debe haber iniciado sesión como administrador), Windows 7
10 MB de espacio libre en disco
Un SCSI, SATA o IDE de disco duro.
Benchmark
La función Benchmark ofrece cuatro pruebas diferentes:
La tasa de transferencia de datos se mide a través de
la superficie del disco entero. El eje X muestra la posición en
gigabytes (GB). El eje Y muestra la velocidad de transferencia de
megabytes por segundo (MB/ s) se puede medir la tasa de transferencia
lectura y escritura.
Para evitar la pérdida accidental de datos, las pruebas de escritura sólo se pueden realizar en un disco sin particiones.
Cómo eliminar las particiones de un disco en Windows.
Para eliminar todas las particiones se debe ir al Panel de
control -> Herramientas administrativas -> Administración de
discos, hacer clic en las particiones en el disco duro que desea probar
y seleccionar eliminar la partición.
Un disco duro recién comprado por lo general no tiene particiones por por lo que este paso no es necesario
La densidad de datos en las pistas
exteriores de un disco duro es mayor que en las pistas internas. Leer o
escribir en las pistas exteriores se llevará a cabo a una velocidad
mayor debido a que la velocidad de rotación es constante.
Un disco duro empieza a leer y escribir en las pistas
exteriores y se traslada a las pistas internas. Este se puede observar
en el gráfico de velocidad de transferencia, donde la velocidad es más
alta en el inicio de la prueba y disminuye hacia el final de los TESTs.
Velocidad de transferencia (Transfer Rate)
La velocidad de lectura se mide en megabytes por segundo (MB / seg). El
mínimo, máximo y promedio de velocidad se muestran en la derecha. La
línea azul en el gráfico muestra el rendimiento de lectura a través del
disco.
Nota: Un megabyte equivale a 1048576 bytes (= 1024 kilobytes). Algunos
puntos de referencia define un megabyte como 1000000 bytes que se
traduce en una mayor puntuación.
En la pantalla de opciones (pulsando el botón), puede elegir la duración de la prueba.
Salud y estado del disco
Esta función utiliza S.M.A.R.T. (Self-Monitoring Análisis y Tecnología de Información) para obtener
información sobre la salud del disco duro.
La tabla muestra los siguientes parámetros:
ID: El parámetro que se mide.
Current: el valor actual
Worst: el peor valor que se ha registrado desde que el disco duro fue utilizado por primera vez.
ThresHold: el valor de cualquiera de los parámetros no deben recibir por debajo del umbral
Data: Muestra los datos útiles que pertenece a la ID.
Status: Estado del parámetro (OK o con errores).
Cuando se detecten errores en el disco, se visualizarán con una línea amarilla o roja.
Haga clic en una entrada de la lista para obtener
información detallada acerca de los parámetros seleccionados, así como
la el estado y las posibles razones del error.
Escaneo de errores en la superficie del disco
La opción Error Scan, explora la superficie de todo el
disco para comprobar los errores. Los defectos se muestran como bloques
de color rojo. La ubicación exacta de estos defectos se muestran en la
lista debajo de la gráfica.
Esta prueba sólo realiza con operaciones de lectura, esto
quiere decir que es segura y no destructiva para los datos de la unidad.
Para realizar una prueba corta o rápida, se puede presionar
el botón Quick Scan. Con esta opción activada, sólo ciertas partes de
la superficie del disco se pondrán a prueba. Para escaneo completo
destildar esta opción, obviamente el tiempo será mucho mayor.
Un vídeo tutorial para demostrar si nuestro disco duro rinde a pleno rendimiento:
Lo constituyen los programas diseñados para uso común y generalizado por parte de muchos usuarios.
Software de ofimática y documentación electrónica.
Son los mas extendidos y usados por el trabajo de oficina que se realiza con ellos.
Aplicaciones dentro de la ofimática:
Procesadores de texto: Se crean documentos de texto.
Hojas de cálculo: Se elaboran facturas, balances...
Gestores de Bases de Datos: Permiten el almacenamiento y la consulta de datos organizados.
Editores de presentaciones: Permite crear presentaciones.
Agendas y organizadores: Se almacenan fechas, direcciones, teléfonos...
Visualizadores de Documentas: El formato PDF es el estándar mas conocido.
Suites Ofimáticas: Paquetes en los que se en encuentran todas las aplicaciones mencionadas anteriormente.
Software de imagen, sonido y vídeo
Programas dedicados a la creación, edición y reproducción.
Software de gráficos
Visualizadores: Muestran los archivos gráficos.
Editores de imágenes de mapa de bits: Sirven para crear imágenes, retocarlas o cambiarles propiedades.
Editores de imágenes vectoriales: Utilizan imágenes vectoriales para la creación de carteles etc.
Programas CAD: Se utilizan para confeccionar planos.
Diseño 3D: Con esta aplicación se crean objetos tridimensionales
Escaneo y OCR: Programas que sirven para obtener imágenes de un escáner.
Software de sonido
Reproductores de sonido: Reproducen sonido en archivos de sonido o CD musicales.
Editores de sonido: Se modifica un archivo de sonido manipulando su onda.
Software de vídeo
Reproductores de vídeo
Editores de vídeo
Reproductores de DVD
Software de educación
Este tipo de software sirve para la educación y el aprendizaje. Dentro de esta categoría tenemos desde programas destinados al aprendizaje hasta sistemas operativos completos destinados a la educación.
Software para la productividad y negocios
Agendas de contactos
Calculadoras
Contabilidad
Gestión de proyectos
Terminales de punto de venta
Rellenar formularios
Software clientes para servicios de Internet
Navegadores: Se usan para acceder a multitud de servicios de Internet
Clientes de correo electrónico: Sirven para recibir y enviar correos electrónicos
Programas de chat: Sirve para tener conversaciones escritas.
Reproductores multimedia: Permiten ver contenidos multimedia transmitidos por Internet.
Aplicaciones P2P: Permiten compartir archivos en Internet.
La instalación de un software básicamente cumple la función de permitir al usuario tener que configurar solamente una vez el programa, de esta manera cada vez que se ejecute el programa no se deberá volver a realizar esta operación.
Tipos de instalaciones:
Instalación estándar: En estas actualizaciones se establecen parámetros de configuración simples.
Instalación remota: Es necesario estar conectado a una red, el programa se encuentra en una ubicación centralizada (servidor).
Instalación avanzada: Esta instalación es mas compleja, permite al usuario configurar gran parte de las opciones de instalación.
Instalación desatendida: En esta instalación no hace falta interacción del usuario,solo es necesario para empezar el proceso de instalación, se realiza de manera continua.
Instalación masiva: Esta actualización consiste en realizar instalaciones sucesivas en un gran número de equipos al mismo tiempo. También se puede dar el caso de utilizar una aplicación que permita crear un archivo y almacenar todo el software que se desea instalar de una vez.
Actualizaciones: También denominadas parches, sirven para actualizar y incluir nuevas funcionalidades, se puede hablar de los siguientes tipos:
De actualización
De depuración
De seguridad
Pasos básicos de una instalación:
Comprobar si se cumplen los requisitos de instalación.
Verificar que el software es original.
Creación de los directorios necesarios para la instalación de programas maliciosos.
Creación de usuarios y permisos necesarios.
Copia, desempaquetado y descompresión de los archivos del paquete de software.
Configuración de la aplicación y definición de las variables del entorno.
Registro de la instalación en el caso de software comercial.
Formas de instalación:
Instalación por copia directa: Es fácil e intuitivo, habitual de MAC OS X. Se organizan en el directorio aplicaciones y se presentan como un paquete con todo lo necesario.
Instalación mediante un instalador: Se emplea un archivo ejecutable o instalad, es habitual en la plataforma Windows el uso de instaladores de forma que cada programa instalado va repartiendo diversos ficheros.
Instalación usando un sistema o gestores de paquetes: Se emplea básicamente en plataformas linux, donde el software se distribuye en forma de paquetes.
Eliminación de aplicaciones:
Para eliminar una aplicación hay que seguir un sencillo proceso:
Eliminación automática de los archivos que constituyen la aplicación.
Ajustes necesarios de configuración del sistema operativo, de forma automática.
Eliminación de iconos en el escritorio de forma automática.
Pruebas o testings de aplicaciones:
Estos problemas surgen habitualmente en las desviaciones de plazos y esfuerzo sobre los valores previstos, son aquel conjunto de procesos que permiten verificar la calidad de un producto software.
Con esto se pretende detectar errores de aplicación y lo que se denominan efectos de forma.
Fallos del software:
A destacar:
Escasez o ausencia de comunicación
Complejidad del software
Errores de programación
Cambios continuos
Presiones de tiempos
Pobre documentación del código
Tipos de pruebas:
Básicamente se efectúan 2 tipos de comprobaciones:
Verificación: Consiste en demostrar que un programa cumple con sus especificaciones.
La verificación incluye por parte de los desarrolladores la revisión de los planes, del código, de los requerimientos...
Validación: Se encarga de comprobar que el programa da la respuesta que espera el usuario. Se centra en la comprobación de los requerimientos del software.
Todo software esta sujeto a unas licencias, y unas normas que deben ser respetadas:
El plazo de cesión de los derechos
Los limites en la responsabilidad de fallos
El tipo de mantenimiento
Los compromisos que debe adquirir el propietario
Las licencias de software se diferencian principalmente por el tipo de fuente de código:
- Softwarepropietario: Mantiene oculto su código fuente
- Softwarelibre: Permite el acceso en su código fuente.
Cada tipo de software tiene sus propias licencias. Empezaremos por las del software propietario:
Propiedad privada: El más conocido, se paga por el programa, también se tiene derecho a asistencia técnica y esta prohibido distribuirlo.
De demostración: Se les llama "demo", no caducan se pueden suministrar sin problema, pero obviamente no es tan completo como el original, esta menos ampliada
Shareware: Es una prueba gratuita del programa de pago con todas sus características durante un periodo de tiempo, tiene caducidad. Es habitual adquirir esta licencia antes de comprar un software.
Freeware: Son gratuitos, se pueden distribuir como se quiere, carecen de garantía hay multitud y normalmente son juegos.
Software libre:
Libertades básicas:
Usar el programa, con cualquier propósito.
Estudiar el funcionamiento del programa, y adaptarlo a las necesidades del usuario.
Distribuir copias del programa.
Mejorar el programa y hacer públicas las mejoras, de modo que toda la comunidad se beneficie.
Se clasifican en 2 tipos de licencias:
Robustas, tambien conocidas como licencias copyleft.
En la empresa en la que trabaje en un futuro necesitare diferentes tipos de software. Por ejemplo tendremos que elegir un sistema operativo.
El sistema operativo es básico, el software principal de cualquier ordenador.
Los sistemas operativos mas conocidos a nivel mundial son:
Windows
Linux
Entre otros tipos también nos podremos encontrar el software de seguridad.
Los antivirus y cortafuegos son esenciales para la seguridad del equipo,más si trabajamos habitualmente en Internet ya que se puede dar el caso de perder información muy valiosa y necesaria para el trabajador y perder por ello muchas horas de trabajo.
También es muy habitual utilizar programas para descomprimir archivos.
Habitualmente los administradores deben realizar descargas y puede que muchas ellas tengan demasiado tamaño por lo que al descargarlos están comprimidos.
Este software es para solucionar ese problema, podremos comprimir y descomprimir archivos con suma facilidad.
Son habituales el WinZip, WinRar, WinAce.
Por ultimo, otro software importante si usamos bases de datos, cosa normal, serian los gestores de bases de datos. Hay muchos tipos de SGBD distintos según manejen los datos y muchos tamaños distintos según funcionen sobre ordenadores personales y con poca memoria a grandes sistemas que funcionan en mainframes con sistemas de almacenamiento especiales. Principales gestores de bases de datos:
Definicion Blu-Ray:
Blu-ray disc, también conocido como Blu-ray o BD, es un formato de disco óptico de nueva generación desarrollado por la BDA (siglas en inglés de Blu-ray Disc Association), empleado para vídeo de alta definición y con una capacidad de almacenamiento de datos de alta densidad mayor que la del DVD.
Logo Blu-ray
Historia
El DVD ofreció en su momento una alta calidad, ya que era capaz de dar una resolución de 720x480 (NTSC) o 720x576 (PAL), lo que es ampliamente superado por la capacidad de alta definición ofrecida por el Blu-ray, que es de 1920x1080 (1080p). Este último es el formato utilizado por los estudios para archivar sus producciones, que anteriormente se convertía al formato que se quisiese exportar. Esto ya no será necesario, con lo que la industria del cine digital no tendrá que gastar esfuerzo y tiempo en el cambio de resolución de películas, lo que abaratará en menor medida y reducción de costes
Cuadro capacidad de almacenaje y velocidad
Mbit/s MB/sUna capa Doble capa
1×364,590180
2× 72 94590
4×1441822,5 45
6×216271530
8×2883611,25 22,5
12×432547,5 15
Blu-ray grupo agrega funciones de seguridad
Uno de los dos grupos que compiten para producir la próxima generación de DVDs ha lanzado nuevas características de seguridad para atraer a las empresas de entretenimiento y electrónica a adoptar su tecnología.
El Blu-ray Disc Association (BDA), una asociación de fabricantes de electrónica y estudios de Hollywood incluyendo Hewlett-Packard y 20th Century Fox, dijo el martes que planea luchar contra la piratería mediante la incorporación de una marca de identificación en películas, música y juegos de video, y que sólo podría ser leído por el equipo que lleva su tecnología.
"Ha sido una promesa desde el primer día: que estamos comprometidos a ofrecer el sistema de gestión de contenido más fuerte", dijo Marty Gordon, vice-presidente de Phillips Electronics y un portavoz de Blu-ray.
Las nuevas características de seguridad son la última andanada en la batalla entre Blu-ray y un grupo rival, HD-DVD, que es apoyado por compañías como Paramount Pictures, Universal Studios, Toshiba Corp. y Sanyo eléctrica.
Finalmente, las dos partes deben convencer a los aficionados de DVD.
Bajo el plan de Blu-ray, el público se le pedirá que comprar nuevos reproductores Blu-ray de discos, incluso mientras su actual trabajo reproductores de DVD. Para que volar, los consumidores deben estar convencidos de que hay beneficios claros para las nuevas tecnologías.
Disco y caratula Blu-Ray
Aquí dejo un vídeo de demostración de la calidad de un Blu-ray:
En este articulo voy ha hablar sobre la memoria Ram, y las nuevas memorias Ram implantadas por Samsung.
La memoria de acceso aleatorio (en inglés: random-access memory) se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.
Samsung presenta las nuevas memorias RAM DDR4
Si hasta ahora los usuarios estaban más que conformes con el desempeño de las memorias RAM DDR3, es porque sinceramente no se había podido ver el adelanto que ha dado Samsung en este mercado.
Las nuevas memorias RAM DDR4 de Samsung han llegado con una serie de novedades y mejoras con respecto a sus antecesoras, tanto en el rendimiento como en el consumo, con las cuales seguramente se abrirán paso en el mercado y darán el pie a otros desarrollos de mejor nivel.
Especificaciones de las memorias RAM DDR4 de Samsung
Desde el hace casi 2 años Samsung viene trabajando en el desarrollo de los nuevos módulos de memoria RAM DDR4, en ese entonces se comentaba que utilizarían tecnología de 50 nanómetros, y hasta se comentaban que serían implementadas en 2012.
Mas allá de lo que en el 2009 se comentaba, lo principal en cuanto a estas memorias es que han sido diseñadas utilizando la tecnología de 30 nanómetros, esto les permite tener un menor consumo energético (1.2v).
Por otra parte, estas memorias actualmente ofrecen una frecuencia de 2133Mhz, pero según la misma Samsung, podrán utilizar desde los 1.600Mhz hasta los 3200Mhz.
El primer gran inconveniente para esta nueva tecnología creada por Samsung es que el mercado ya está abastecido por las memorias DDR3, así que deberemos esperar a ver alguna prueba del rendimiento para que la gente se empiece a interesar y las empresas deseen implementarlas en sus nuevos dispositivos. Aún así, lo más seguro es que Samsung siga buscando formas de aumentar el rendimiento de estas memorias, y una vez que superen definitivamente a las memorias DDR3, entonces la inserción se realizará casi por si sola.
Lamentablemente Samsung no ha dado indicaciones de posibles fechas en las que estas nuevas memorias DDR4 serán lanzadas al mercado, así que deberemos esperar algunos meses hasta que la empresa decida insertarlos entre sus ofertas y las empresas desarrolladoras de dispositivos comiencen a implementarlos.
Con la familia Radeon HD AMD ha pasado de la arquitectura VLIW (Very Long Instruction Word) a la GCN (Graphics Core Next). Tradicionalmente, AMD ha estado por delante de NVIDIA en eficiencia y consumo bruto de energía, lo que ponía a NVIDIA en una posición complicada, pero también AMD ha estado por detrás de NVIDIA en un apartado clave para el futuro de los procesadores gráficos: GPGPU.
Con GPGPU, se trata de usar los recursos de paralelismo en las arquitecturas gráficas para acelerar aplicaciones y código que en una arquitectura x86 no puede paralelizarse más allá de un nivel básico. En este campo, NVIDIA ha estado por delante con su tecnología CUDA, una API desarrollada por la firma para facilitar la programación de aplicaciones que aprovechen el paralelismo de sus chips gráficos.
AMD ha detectado esta carencia y ha rediseñado los bloques sobre los que se construyen sus chips. El paralelismo en una tarjeta gráfica se basa en la integración de centenares o miles de unidades de procesamiento relativamente simples (shaders) que realizan cálculos a nivel de píxel, vértices o geometría.
En generaciones anteriores, AMD había optado por un paralelismo óptimo para procesar gráficos, donde apenas hay dependencias entre operaciones. Pero, en GPGPU, sí las hay, y, en estos casos, gran parte de los recursos de computación en la arquitectura VLIW estaban a la espera de la resolución de dependencias. Con GCN, AMD ha conseguido liberarse en gran medida de estas dependencias y aumentar el rendimiento en aplicaciones GPGPU sin penalizar el rendimiento gráfico.
Con el modelo GTX 680, NVIDIA se ha puesto al día en cuanto a arquitectura con cambios no tan radicales como los de AMD, pero sí con optimizaciones en eficiencia energética. Uno de los más notables ha sido el de unificar relojes. Es decir, antes NVIDIA usaba una velocidad de reloj para el chip, pero los shaders funcionaban al doble de megahercios, lo que implica mayor consumo energético; así que ha reducido la velocidad de reloj de los shaders, de modo que funcionan a la velocidad del núcleo. Al ser una velocidad menor, para un mismo número de shaders, el rendimiento baja.
Por eso, NVIDIA ha diseñado shaders más simples, aunque con la misma estructura que en la anterior generación, pero ha integrado muchos más. Y de paso ha duplicado el resto de unidades funcionales que acompañan a los shaders. En conjunto, NVIDIA ha conseguido aumentar el rendimiento de sus tarjetas sin un aumento espectacular del número de transistores. Como consecuencia, el funcionamiento es similar a Fermi, pero aumentado y optimizado. El resultado es una tarjeta que no necesita conectores de 8 pines, con un tamaño inferior al de la de AMD y con un TDP inferior.
En otros apartados, se ha compensado la reducción del ancho del bus de memoria con el aumento de la frecuencia, e introducido tecnologías como GPU Boost, que aumenta la velocidad de reloj de forma dinámica siempre que haya margen térmico. Además, también aumenta el voltaje dinámicamente para ofrecer más estabilidad.
En el campo del vídeo, NVIDIA permite ahora controlar cuatro monitores en el modo 3D Vision Surround. Además, es compatible con PCI-E Gen 3 y añade la tecnología Adaptive Vsync, que permite desactivar el sincronizado vertical cuando la tasa de frames cae por debajo de los establecidos (60 fps, por ejemplo). En cuanto a la eficiencia, se traduce en un buen nivel de ruido en funcionamiento y en un control fino de las frecuencias de trabajo de forma dinámica.
Tarjeta NVIDIA
Pros y contras de las nuevas arquitecturas
Lo mejor
Aumento del rendimiento con reducción del consumo. Se invierte la trayectoria de las pasadas generaciones.
Atención especial a las aplicaciones GPGPU. Destaca el avance de AMD en este campo.
Control dinámico de la velocidad de reloj y voltajes o control del TDP.
Mejoras en el vídeo y audio con compatibilidad para monitores 4K, así como modos multimonitor 3D.
Mayor ancho de banda en puntos clave: PCI 3.0 vs PCI 2.0, conexiones HDMI que ahora pueden llevar el audio para cada monitor de forma independiente.
Lo peor
El precio de las tarjetas de gama alta sigue estando fuera del alcance de la mayoría de los usuarios.
Aqui dejo un video con una comparativa entre AMD Y NVIDIA
El procesador (o microprocesador) es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es un circuito integrado conformado por millones de componentes electrónicos. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.
Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante(conocida antiguamente como «co-procesador matemático»).
A continuación voy a hablar sobre una de las ultimas generaciones de procesadores creada por la marca mas influyente y importante en procesadores.
Procesadores Intel
La familia de procesadores Intel Core estreno su segunda generación, basada en la microarquitectura Sandy Bridge.
Los nuevos procesadores Intel, conocidos por su nombre en código Sandy Bridge, sucesores de los actuales Nehalem, han sido presentados por Intel coincidiendo con el estreno del nuevo año. Pertenecen a la segunda generación de la familia de procesadores Intel Core, y su nueva microarquitectura unifica en una misma oblea de silicio la tecnología de proceso de fabricación en 32 nanómetros, tanto para la CPU, como la parte correspondiente al chip gráfico o GPU. Hay nuevos modelos basados en Sandy Bridge, tanto en la gama de equipos de sobremesa o desktop, como mobile para ordenadores portátiles, potenciando la tecnología Turbo Boost y ofreciendo mejores experiencias en gráficos con HD Video.
Aquí dejo un vídeo de un spot de Intel en el que dejan ver las altas prestaciones que tienen sus procesadores de 2ª generación.
Aquí os enlazo a un articulo muy interesante sobre pruebas de rendimiento realizadas a la 2ª Generación de Intel.
El gigante del chip ha anunciado la salida del negocio de placas base de escritorio, tras la llegada de los micros Haswell, en la búsqueda de nuevos factores de forma y después de veinte años de comercialización de placas propias.
Aunque hace tiempo que los grandes fabricantes asiáticos (principalmente Gigabyte y ASUS) dominan ampliamente el mercado de las placas base de consumo con modelos -en general- más potentes y económicos que los del gigante del chip, el anuncio de la salida de Intel de este mercado avanza grandes cambios en el sector.
Era un secreto a voces cuando se anuncio el adiós a la era ‘Tic-Tac’ en próximas generaciones de microprocesadores Intel y con ello, un cambio de diseño radical con el uso del factor de forma BGA con el micro soldado en la placa base y sin posibilidad de reutilización.
Si a esta estrategia unimos la apuesta por el mercado del portátil y las tabletas electrónicas y la dificultad para seguir el ritmo de los fabricantes asiáticos, comprenderás la salida de Intel de este negocio.
Ello no quiere decir que la firma abandone totalmente la comercialización de placas base ya que seguirá produciendo las destinadas a servidores y estaciones de trabajo profesionales.
También se espera que Intel siga sirviendo procesadores para la gama entusiasta en placas de terceros aunque tras la llegada de los procesadores Haswell, la apuesta por la integración con formatos BGA, SoC o los nuevos NUC, va a ser total en Intel.
El Overclocking trata de forzar los componentes del equipo para que trabajen a una velocidad más rápida que la establecida por fábrica, con el objetivo de mejorar el rendimiento del equipo.
La idea es conseguir un rendimiento más alto graetuitamente, o superar las cuotas actuales de rendimiento, aunque esto pueda suponer una pérdida de estabilidad o acortar la vida útil del componente.
La modificación de los parámetros de fábrica (overclocking) implica la pérdida de la garantía sobre los componentes.
¿Qué problemas pueden surgir?
La primera consecuencia de realizar un overclocking es perder la garantía del fabricante. Aunque si ganamos en prestaciones, nos podemos permitir correr el riesgo. Se suele aconsejar realizar el overclocking con equipos que ya tengan la garantía vencida, ya que así no corremos el riesgo de perderla.
Que funcione el overclocking, pero que se caliente más el microprocesador (cosa que es completamente normal, ya que a mayor velocidad hay mayor generación de calor).
Que se estropee el componente. En teoría con una subida escalonada del rendimiento no debería de haber problemas. Es aconsejable que entre esas pruebas probemos la estabilidad del sistema y el incremento del calor generado.
También nos puede pasar que no funcione correctamente la velocidad que le hemos marcado, y hasta podemos perder datos del disco duro.
¿Cómo se debería de hacer el overclocking para que funcione?
Para que sea seguro debería de hacerse de forma gradual y verificando en cada pequeña subida que el sistema funciona correctamente realizándole una batería de test o test de tortura.
Durante la realización del test de tortura deberemos monitorizar el microprocesador sobre todo mirando la temperatura que está alcanzando para no llegar nunca a temperaturas en las que la salud del micro vaya a verse afectada.
Aqui dejo un video de un procedimiento de overclocking:
Parametros que pueden variar con el overclocking:
El Microprocesador.
Funciona a dos velocidades:
Externa: Es la velocidad con la que se comunica con la placa base y es la velocidad del FSB.
Es la velocidad del FSB multipplicada por el multiplicador. Cambiar el multiplicador del microprocesador y subir la velocidad del bus FSB.
Hay que tener en cuenta que si se modifica la velocidad del FSB, automáticamente se modifica la velocidad del microprocesador, con lo cual el incremento del multiplicador no tiene por que ser tan grande. Elevar el Voltaje.
Es una de las posibles opciones que tenemos para aumentar la velocidad del sistema. Todos los expertos aseguran que es la opción más arriesgada puesto que no solo se puede producir un deterioro de los materiales por el aumento claro está del calor producido, sino también por un aumento de la corriente al propio componente.
Subir la velocidad del bus FSB.
En este caso lo que se modifica es la velocidad base del bus FSB.
En este ejemplo en la modificación de la velocidad base del FSB por ejemplo a 150MHz obtendríamos los siguientes resultados.
Velocidad del micro (core speed): 12 x 150 = 1800 MHz.
Velocidad efectiva de FSB (rated FSB): 133,3 x 4 = 600 MHz
Esta modificación de la velocidad base del bus sí tiene efecto sobre otros componentes del equipo como la memoria, la cual funciona en proporción a la velocidad del FSB o los buses PCI, PCIe o AGP..
Overclocking de la tarjeta gráfica.
Muchas veces el cuello de la botella en un ordenador se encuentra en la trajeta gráfica. Si se utiliiza el equipo para diseño o simplemente jugar, el disponer de una tarjeta gráfica con mejores prestaciones hará que todo el equipo vaya mucho más rápido. No obstante el cambio de una tarjeta de video a otra es bastante caro y no queda más remedio que optar por el overclocking.
La electromigración
Es el desgaste del microprocesador debido a varios factores (calor, voltaje...). El overclocking puede producir electromigración y esto quiere decir que irá cada vez más lento hasta que termine por estropearse por completo.
Para realizar el overclocking se puede realizar de varias opciones:
Elevar la frecuencia base del sistema o FSB, lo que redundaría en una subida de la velocidad del micro, memoria y buses.
Subir aisladamente la velocidad del micro, memoria o buses.
Alguna combinación de las anteriores.
Mejorar el rendimiento de otros elementos del equipo como la tarjeta gráfica...
1-Unidad de memoria (UM): Es la encargada de almacenar la información. Esta arquitectura se caracteriza por utilizar dicha unidad tanto para almacenar información como para programas.
2-Unidad Centra de Proceso (CPU): Es el circuito integrado constituido por millones de circuitos electrónicos. Se encarga de interpretar las instrucciones contenidas en los programas y procesa los datos. 3-Unidad de control (UC):Es uno de los tres bloques funcionales principales en los que se divide una unidad central de procesamiento (CPU). Los otros dos bloques son la unidad de proceso y el bus de entrada/salida. Su función es buscar las instrucciones en la memoria principal, decodificarlas (interpretación) y ejecutarlas, empleando para ello la unidad de proceso. 4-Unidad Aritmético-Lógica (UAL):es un circuito digital
que calcula operaciones aritméticas (como suma, resta, multiplicación,
etc.) y operaciones lógicas (si, y, o, no), entre dos números. 5-Unidad de entrada/salida (UE/S):Los periféricos son una serie de dispositivos que permiten a la computadora comunicarse con el exterior, bien sea para tomar datos o para mostrar información, o bien para almacenar, de forma permanente, grandes cantidades de información.
6-Bus de datos (BD):Un bus de datos es un dispositivo mediante el cual al interior de una computadora se transportan datos e información relevante.
7-Bus de direcciones (BA):El bus de direcciones es un canal del microprocesador totalmente independiente del bus de datos donde se establece la dirección de memoria del dato en tránsito.
8-Bus de control (BC): El bus de control gobierna el uso y acceso a las lineas de datos y de direcciones.
9-1ª Generación de computadoras:La generación en la cual las computadoras funcionaban con tubos de vacío o válvulas y solo eran capaces de realizar operaciones sencillas. 10-2ª Generación de computadoras: En esta generación se cambio el tubo de vació por el recién descubierto transistor . 11-3ª Generación de computadoras: esta surgió debido a al operación de los circuitos integrados. Más ligeras y eficientes.
124ª Generación de computadoras: Aparece el procesador dando lugar a computadores mas avanzadas y con mejor rendimiento.
13-5ª Generación de computadoras: Basadas en la inteligencia artificial. Hubo un mejor uso de sus prestaciones.
14-Protocolo: En informática, para que dos equipos puedan comunicarse a través de una red deben utilizar una serie de normas que aseguren el envío de un mensaje del equipo remitente al equipo receptor. Al conjunto de normas que regula dicha comunicación se le denomina protocolo. En las redes informáticas existen distintos tipos de protocolos.
15-WWW: La World Wide Web es un sistema de distribución de información basado en hipertexto enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes... y navega a través de ellas usando hiperenlaces.
16-Host Un dispositivo final en un red.
17-Backbone:
WAN
El la autopista de internet por la cual viajan millones de datos a gran velocidad de un país a otro o de un zona separada a larga distancia.
18-WAN o redes de área extensa: Son redes de un área grande con varios host conectados entre sí..
19-LAN o red de area local: Como su propio nombre indica son redes de reducido espacio.. 20-Servidor: Cuando en una red cliente/servidor existe una gran cantidad de recursos, es normal que existan varios equipos servidores, pudiendo estar cada uno de ellos dedicado a ofrecer un solo tipo de servicio o información.
21-Cliente: En una red cliente/servidor, los equipos clientes pueden ser empleados por los usuarios de dicha red para solicitar información (datos) y servicios (impresión de documentos, transferencia de ficheros, correo electrónico,...) a los equipos servidores.
22-Unicode: Es un código que intenta contener a todos los símbolos que se utilizan en todos los idiomas por los humanos.
23-ASCII: (Código estándar americano para el intercambio de información) es un tipo de código utilizado por los ordenadores y el más utilizado.
24-Overlocking: Es forzar los componentes del equipo para que trabajen a una velocidad mas rápida que la fijada por fabrica.
25-Internet:Es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial.
26-Ethernet: Es un estándar de redes de área local para computadores con acceso al medio por contienda CSMA/CD. CSMA/CD (Acceso Múltiple por Detección de Portadora con Detección de Colisiones), es una técnica usada en redes Ethernet para mejorar sus prestaciones 27-WAN: Cuando las distancias entre los equipos de una red informática son de decenas, cientos o miles de kilómetros, a dicha red se le denomina red de área extensa (Wide Area Network, WAN). 28-LAN: Red de área local nos indica que son redes de reducido espacio.
29-Firewall: es un sistema básico de seguridad que debemos utilizar para nuestra conexión a internet. Es un sistema de defensa que se basa en la instalación de una barrera entre tu PC y la red. 30-Firmware: es el software que viene incomparado en el hardware.
31-Codigo Binario: En informática, a una sucesión de bits se le denomina código binario o código máquina.
32-Backbone: El núcleo o corazón de Internet está compuesto por una serie de supercomputadoras conectadas a través de conexiones de alta velocidad. A dichas conexiones se les conoce como superautopistas de la información, también denominadas por el término backbone o columna vertebral de Internet. 33-Eniac: Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico), utilizada por el Laboratorio de Investigación Balística del Ejército de los Estados Unidos.
34-Extranet: Una extranet es una red privada que utiliza protocolos de Internet, protocolos de comunicación y probablemente infraestructura pública de comunicación.
35-Humanwere: La parte humana de un sistema informáticos. Se divide entre profesionales informáticos y usuarios. 36-Datos: Los datos que utilizan los programas se pueden clasificar en base a diferentes criterios. Uno de los más significativos es aquel que dice que todos los datos que utilizan los programas son simples o compuestos.
37-Bit: Un bit (acrónimo de binary digit) es la unidad de información más pequeña con la que pueden trabajar los dispositivos electrónicos que constituyen una computadora digital. 38-Byte: Los bits suelen agruparse en bloques de 8. A dicho bloque se le denomina byte u octeto, y es la unidad de medida de información usada para referirse a cantidades más grandes de bits.
39-Palabra: Respecto al diseño de una computadora, una de las características que más la define es el máximo número de bits con que la CPU puede trabajar en paralelo (a la vez).
40-Decodificador: Un decodificador o descodificador es un circuito combinacional, cuya función es inversa a la del codificador, esto es, convierte un código binario de entrada (natural, BCD, etc.) de N bits de entrada y M líneas de salida (N puede ser cualquier entero y M es un entero menor o igual a 2N), tales que cada línea de salida será activada para una sola de las combinaciones posibles de entrada.
41-Secuenciador: Un secuenciador es un dispositivo electrónico físico o una aplicación informática que permite programar y reproducir eventos musicales de forma secuencial mediante una interfaz de control físico o lógico conectado a uno o más instrumentos musicales electrónicos. La interfaz de control más extendido es el estándar MIDI.
42-Interfaz: es un término que procede del vocablo inglés interface (“superficie de contacto”). En informática, esta noción se utiliza para nombrar a la conexión física y funcional entre dos sistemas o dispositivos de cualquier tipo dando una comunicación entre distintos niveles.
43-Controlador: Su misión es gestionar directamente el periférico.Es un sistema electronico o mecanico que suele ir integrado en el propio periférico,por lo que podemos deducir que el periférico es este.
44-Microprocesador: es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es un circuito integrado conformado por millones de componentes electrónicos. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.
45-Mainframe: Son servidores de gama alta. Son rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente.
Superordenador
46-Superordenador: Es el tipo de computadora más potente, más rápida y más cara que existe actualmente y de elevadísimas prestaciones. 47-Miniordenador: También llamados servidores, son equipos con mayores prestaciones que un PC, que permiten simultáneamente el uso de decenas de usuarios.
48-Von Neumann: John von Neumann fue un matemático húngaro-estadounidense que realizó contribuciones fundamentales en física cuántica, análisis funcional, teoría de conjuntos, ciencias de la computación, economía, análisis numérico, cibernética, hidrodinámica, estadística y muchos otros campos. Está considerado como uno de los más importantes matemáticos de la historia moderna. 49-Placa base: Placa de circuito impreso en la que "se pinchan" la mayoría de los demás componentes de un ordenador. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.
50-Tarjeta de sonido: Dispositivo que da al ordenador la capacidad de sintetizar y emitir sonidos, así como de capturarlos. Es frecuente que un ordenador que no tenga tarjeta de sonido disponga al menos de un pequeño altavoz, que se puede controlar directamente desde el procesador para emitir sonidos de baja calidad. Fuentes: