jueves, 28 de enero de 2016

SSD PCIe, otro nivel para tu PC a un coste elevado


SSD PCIe, otro nivel para tu PC a un coste elevado
SSD PCIe apunta fuerte como la solución de almacenamiento masivo en ordenadores de sobremesa, pero ¿Cuáles son sus ventajas? ¿Podemos prescindir definitivamente de los discos duros? ¿Cuánto cuestan? ¿Merece la pena su compra hoy?
El almacenamiento sólido se ha convertido en el estándar de almacenamiento en dispositivos de movilidad, en smartphones, tablets y también en portátiles, como vimos en el pasado CES donde 9 de cada 10 portátiles presentados lo usaban. Ciertamente la mayoría eran equipos de gama alta pero ya estamos viendo actualizaciones de catálogo con SSD para todas las gamas y la tendencia indica que en un futuro (no demasiado lejano) pocos portátiles se pondrán a la venta con discos duros.
Hemos hablado a fondo de sus principales ventajas, de los aspectos a considerar a la hora de su compra o un montaje práctico de una unidad, pero hoy queríamos detenernos en las SSD PCIe, otro nivel para tu PC siempre que tengas un presupuesto generoso.

SSD PCIe – Ventajas

La mayoría de unidades de estado sólido para venta en retail se ofrecen en formato estándar de 2,5 pulgadas y conexión a la interfaz SATA. Pueden utilizarse directamente en portátiles y también en PCs de sobremesa mediante un adaptador a 3,5 pulgadas o (modo chapuza), directamente sujetado en una bahía libre. Los fabricantes también los montan en equipos nuevos aunque la tendencia es utilizar formatos M.2 mucho más pequeños (tanto pinchados como soldados en placa) y que pueden conectarse tanto a SATA como PCIe.
El formato M.2 con tamaño inferior al de una tarjeta de crédito y grosor de un módulo de memoria RAM es ideal para portátiles y también están comenzando a llegar para sobremesas en placas base que los soporten. Las SSD PCIe es otra de las soluciones de almacenamiento disponibles, en un formato de tarjeta pinchada en un slot PCI Express (similar a una gráfica dedicada u otras tarjetas de expansión), ideal para máquinas de sobremesa. También puedes encontrar formatos M.2 con un adaptador para tarjeta que funciona de la misma manera:
SSD_PCI
Las ventajas sobre las conectadas a SATA son evidentes, comenzando por un rendimiento muy superior. Si SATA III nos ofrece una velocidad de transferencia de datos hasta 600 MB/s, utilizar un bus como PCIe nos permitiría (teóricamente) alcanzar hasta 32 GB/s bidireccionales usando una ranura PCIe 3.0 x16. La nueva norma PCI-Express 4.0 duplicará incluso el ancho de banda de la v 3.0, lo que muestra el potencial de este bus para sistemas de almacenamiento.
Las soluciones actuales ni se acercan al máximo teórico de la norma porque utilizan normalmente una ranura x4 pero aún así, multiplican por cinco el rendimiento en transferencia de datos en lectura (de 3 a 4 veces en escritura) que ofrece una SSD a SATA. De 500 MBps a 2.500 MBps. Como media, porque modelos como la Samsung PM1725 alcanza 5.500 Mbytes por segundo en lectura. Ahí es nada.
SSD_PCI_3

SSD PCIe – Soporte y Montaje

Para soportar estas nuevas SSD, la industria creó una especificación dedicada que verás denominada como NVM Express, NVMe o NVMHCI. Reemplazo del actual AHCI, fue diseñada desde cero como una interfaz de dispositivo lógica que soportase SSD PCI, las M.2 y también SSD de 2,5 pulgadas aunque éstas son menos utilizadas.
NVM Express ofrece un aprovechamiento máximo del ancho de banda de las unidades de estado sólido y ofrece otras mejoras en eficiencia energética en modo hibernación o suspensión. Señalar que esta especificación permite que el equipo reconozca la SSD como primer dispositivo de arranque (o único si queremos eliminar los discos duros), permitiendo la instalación del sistema operativo.
La norma es soportada en placas base con chipset Z97, Z170 y X99, nuevas y antiguas, mediante una actualización de la BIOS. Soporta todos los sistemas operativos principales, Windows, Mac OS X, Linux, FreeBSD o Chrome OS. En SourceForge está disponible un controlador NVMe de código abierto para UEFI.
SSD_PCI_4
El montaje de una SSD PCI es tan simple como pinchar la tarjeta en un slot PCI disponible, sin necesidad de cableado o tornillería y con reconocimiento automático de la unidad en la BIOS igual que haría con un disco duro o SSD SATA en placas soportadas.

SSD PCIe – Modelos y Precios

Aunque su futuro en PCs es claro por todo lo expuesto, SSD PCIe es hoy un formato minoritario por la limitación de su soporte y por el superior precio de venta respecto a los discos duros o las SSD SATA.
Aunque el precio de las memorias flash (base de las SSD) no han dejado de bajar, cualquier búsqueda de precios revelará que una SSD PCI es bastante más cara que una SSD a SATA con la misma capacidad. Se nota especialmente en la gama alta. Si en un portátil podemos conformarnos con una capacidad -por ejemplo- de 256 Gbytes, en un PC de sobremesa necesitamos modelos superiores si lo que pretendemos es eliminar los discos duros internos.
Una buena estrategia (que ya usamos muchos con SSD SATA) pasa por incorporar una SSD PCI de pequeño tamaño para instalar el sistema y aplicaciones principales, manteniendo los discos duroscomo medios de almacenamiento masivo.
También existe la posibilidad de adquirir una SSD M.2 y un adaptador HHHL para pincharlas en placa. Eso sí, cuidado con la M.2 que compras porque el formato soporta SATA o PCIe (nunca ambos) y necesitarás adquirir la segunda para el máximo rendimiento. O hay otras que solo soportan PCI 2.0 con menor velocidad…. En definitiva, mira bien todas las especificaciones antes de la compra.
Fórmulas variadas para soportar estas SSD conectadas a PCIe, el futuro del almacenamiento en PC aunque de momento precio y soporte limitan su expansión. Si vas a montar una estación de trabajo profesional o un PC grado entusiasta, tendrás que tenerlas en mente.

SATA, ya no te queremos: el estándar M.2 es el presente y futuro de las unidades SSD

Plextor


El estándar SATA nos ha servido bien, pero a toda cerdo tecnología le llega su San Martín, y esta solución para conectar unidades de almacenamiento hace tiempo que tiene un sustituto poderoso y mucho más acorde con los tiempos. Su nombre: M.2.
Llevamos tiempo viendo este tipo de unidades en algunos PCs y sobre todo portátiles de última generación, y aunque no solo se limita a servir para conectar dispositivos de almacenamiento, este tipo de soluciones son las que están brillando con luz propia. Y si no que se lo digan a los nuevos productos de fabricantes como Samsung, Plextor u OCZ, cuyas unidades SSD en formato M.2 rondan velocidades de lectura de 2,5 GBps.

La nueva generación de unidades SSD

El CES 2016 ha servido para confirmar que lo que hasta ahora era válido para la mayoría de usuarios comienza a quedarse claramente atrás. Las unidades SSD hace tiempo que se han consolidado como la mejor actualización que uno le puede hacer a su PC o portátil, pero si queréis exprimir esas prestaciones de verdad, deberíais pensar en actualizarlos con unidades SSD M.2
Ssd1
Aquí existe la posibilidad de que vuestro PC o vuestro portátil simplemente no acepten este tipo de unidades. En el caso de los portátiles lo tenéis prácticamente imposible, porque la capacidad de expansión de estos equipos es más limitada y normalmente tendremos que limitarnos al tipo de conector que se incluye en la placa base. 
Existe una opción, y es conseguir un adaptador de M.2 (NGFF) a mPCIe para luego conectar la unidad SSD M.2 que queramos añadir al equipo, pero este tipo de adaptadores sirven normalmente para módulos de conectividad WiFi/Bluetooth/3G/LTE. Afortunadamente cada vez más fabricantes de portátiles trabajan con el estándar M.2, aunque como veremos más adelante hay diversas versiones del estándar con diversas prestaciones.

Las ranuras PCIe al rescate

La cosa cambia de forma notable si lo que queréis es actualizar vuestro PC. En el mercado existen ya soluciones que os permiten aprovechar las ranuras PCIe para conectar a ellas unidades SSD con conector M.2, o lo que es lo mismo, aprovechar esas unidades con formato "paquete de chicles" en placas PCIe que hasta no hace mucho no se utilizaban demasiado en temas de almacenamiento en equipos para usuarios finales. 
Samsung
Póngame 10 de estos, por favor. 
Esa tendencia cambiará a corto plazo, y es probable que no tardemos mucho en ver cómo el estándar de conexión SATA pierde protagonismo frente a las conexiones M.2 y PCIe que permiten exprimir las nuevas unidades SSD (sobre todo las que soportan NVMe). 
Fabricantes como Samsung, Plextor (M80Pe) u OCZ han mostrado soluciones en este CES que ofrecen velocidades de transferencia de 2,5 GBps en lectura y 1,5 GBps en escritura y que estaban conectadas a los PCs vía interfaz PCI-Express 3.0 x4. Ese rendimiento baja si utilizamos esas unidades en ranuras M.2 o PCIe menos "potentes", de modo que hay que prestar especial atención a la otra clave de estas soluciones. 

Cuidado con la placa base

Si vuestra placa base no soporta este tipo de ranura perderéis rendimiento, así que si estáis pensando en olvidar el estándar SATA atentos a esto. En la curiosa página Johny Lucky hay información muy relevante sobre las últimas unidades disponibles, qué tipo de estándar de conexión soportan y si hay análisis de esas unidades en medios técnicos, y os puede servir como referencia si estáis buscando unidades de última generación... o quizás de la generación anterior. 
Asrock Z170 Extreme7
Si tenéis un equipo que no sea de última generación y no contáis con una placa base con los últimos chipsets probablemente tengáis que aceptar el hecho de que no podréis sacar el máximo rendimiento de unidades como las prometedoras Samsung 950 Pro NVMe de las que hablamos hace tiempo, por lo que es importante que prestéis atención al tipo de soporte M.2 de vuestras placas. 
De hecho, el estándar M.e se pueden conectar a través de tre interfaces lógicos distintos. Se pueden conectar tanto a través de las controladoras SATA (las que dan el peor rendimiento), pero también a través del bus PCIe tanto en modo x2 como en modo x4. Afortunadamente todas las unidades SSD M.2 son compatibles hacia atrás con SATA así que aunque no aprovechéis toda la potencia de esas unidades, podréis seguir usándolas con vuestras actuales placas base (a no ser que la unidad no tenga conector SATA, claro). 
El problema de las placas base actuales es claro. Incluso en modelos que sí soportan estas unidades, hay limitaciones. Tenemos un buen ejemplo en la ASUS Z97-A, una placa base con tres ranuras PCIe x16. Una de ellas será utilizada para una gráfica, mientras que sí podríamos utilizar la segunda ranura para una unidad SSD M.2 x4 que, eso sí, tendría un efecto colateral: reduciría la velocidad de la primera ranura PCIe a x8 en lugar de x16
No es una tragedia, pero la situación no es ideal. Como indicaban en este hilo de Reddit, el soporte hasta no hace mucho era limitado, y casi conviene plantearse dar el salto a placas para procesadores Skylake que ofrecen más pistas PCI 3.0. Tenemos un buen ejemplo en la ASRock Z170 Extreme7+, una placa preparada al máximo para los nuevos Skylake, con el nuevo chipset Z170 de Intel y a la que es posible no una ni dos, sino hasta tres unidades SSD M.2 3.0 x4 en RAID (si así lo deseamos). Boom.

Esto es un SSD, no una gráfica

En este sentido podemos encontrarnos con diversas versiones del conector que ofrecerá más o menos prestaciones. El M.2 3.0 x4 es el que utilizan las unidades tope de gama que hacen uso de 4 canales PCI Express 3.0 (PCIe 3.0 x4) y que ofrecen las máximas prestaciones. Algunos fabricantes denominan a estos puertos M.2 "Ultra M.2". Es el tipo de conector que deberíais buscar para unidades como las Samsung 950 Pro.
Intel1Esto no es una tarjeta gráfica: es una poderosa unidad SSD que aprovecha las ranuras PCIe 3.0 x4 (con soporte NVMe) para ofrecer tasas de transferencia absolutamente demoledoras 
Pero claro, también podéis encontraros con puertos M.2 2.0 x4, M.2 2.0 x2 o M.2 SATA 3, además por supuesto de unidades en formato PCIe: básicamente son unidades SSD con conectores M.2 pero ya integradas en el adaptador PCIe (tienen el mismo aspecto que una tarjeta gráfica) para conectarlo a nuestra placa base con facilidad. Cuidado, porque cada una de esas versiones ofrece distintas prestaciones, sindo las SATA las más limitadas.
La confusión puede llegar a ser importante, así que tendréis que consultar qué tipo de unidad os queréis comprar y qué tipo de soporte tenéis en vuestra placa base. Recordad, las M.2 3.0 x4 -formato paquete de chicles- o las PCIe 3.0 x4 -que tienen el mismo aspecto que una gráfica dedicada- son las tope de gama, pero antes de lanzaros a la compra tendréis que verificar que vuestra placa soporta esos estándares, porque no muchas lo hacen a día de hoy.

Trece datos que jamás hay que poner en un currículo


http://www.eleconomista.es/emprendedores-pymes/noticias/7121760/11/15/Trece-datos-que-no-deben-ponerse-nunca-en-un-curriculum.html
Tener un currículo cuidado y bien redactado es el primer paso para conseguir ese trabajo que esperas. Hay que tener claro que las empresas reciben cientos de currículos diarios, por lo que lo importante es que el tuyo destaque de entre los demás. Para tratar de tenerlo lo más pulido posible, desde el portal El Economista alertan sobre una serie de datos que nunca deberían incluirse. De este modo te asegurarás de que el tuyo no quede descartado para una vacante a la primera de cambio.
1. Experiencia irrelevante
Que a los 18 años se haya trabajado de camarero es irrelevante cuando se aspira a un puesto en una oficina. Hay que omitir toda la experiencia que sobra. Solo se debe incluir en el caso de que muestre una capacidad o habilidad que pueda ser aplicable en el puesto al que se aspira.
2. Información muy personal
El estado civil, la religión o el número de la Seguridad Social son datos que para el reclutador es inútil, y que en algunos casos hasta puede ser ilegal.
3. Aficiones
A nadie le importan los hobbies de un candidato, salvo que puedan tener una relación con el trabajo al que se aspira. “Es un desperdicio de espacio y una pérdida de tiempo”, advierten.
4. Mentiras flagrantes
Universidades que no existen, premios famosos… las mentiras descaradas es lo que más detestan los reclutadores.
5. Demasiado texto
Reducir los márgenes y utilizar un tamaño de fuente demasiado pequeño para tratar de incluir toda la información posible es un grave error. La experta JT O’Donnell recomienda que el CV incluya bastante espacio en blanco, que facilite la lectura.
6. Referencias
Si los potenciales empleadores quieren referencias ya la solicitarán. No hace falta dedicar un espacio en el CV para indicarlas.
7. Formato aleatorio
En el caso del currículum, la forma es casi tan importante como el contenido. Una vez elegido el formato, es importante respetarlo, y no dar saltos entre un campo y otro, ya que dificultaría el seguimiento para el reclutador.
8. Correo electrónico poco profesional
cervecero48@hotmail.com o morenasexi28@gmail.com no son direcciones de correo adecuadas para buscar empleo. Es el momento de elegir una nueva. Son gratis, y se tarda dos minutos en hacerlas.
9. Información de contacto en el trabajo actual
No es recomendable utilizar el correo de trabajo o poner como contacto el teléfono de la oficina. A los empleadores no les gusta pensar que se está de paso en un trabajo.
10. El nombre del jefe
Salvo que sea una persona digna de mención, poner en el CV el nombre del jefe actual no aporta nada.
11. Salario
Algunas personas incluyen las tarifas que cobran en la actualidad por hora, una información irrelevante que puede enviar un mensaje equivocado. “Un CV sirve para mostrar la experiencia profesional y las habilidades que se poseen. Sobre el salario se habla más adelante, durante la entrevista”, afirma Amy Hoover, presidente de Talent Zoo.
12. Tipografía equivocada
“No utilices Times New Roman, ni fuentes serif”, explica Hoover. Tampoco se deben usar fuentes consideradas de lujo, porque el objetivo no es que se vea bonito, sino que la lectura sea fácil. Helvetica es la tipografía más adecuada.
13. Las notas
Salvo que se esté recien licenciado y se posean unas calificaciones muy destacadas, incluir las notas en el CV no tiene sentido.

4K, 2K, 1080p ¿Cuál es la resolución “buena” para una TV?


1200px-Cptvdisplay
¿Qué resolución es la adecuada para un televisor? Los fabricantes de electrónica de consumo están en una carrera permanente para añadirles nuevas funciones y tecnología a los dispositivos que fabrican para que nosotros, como consumidores, no podamos resistirnos y cambiemos nuestros equipos de ayer por flamantes equipos de pasado mañana. Esto ocurre en cualquier segmento, pero es especialmente intenso en el caso de los televisores y sus resoluciones, que han pasado de 720 a 1080 y ahora 2K, 4K o incluso 8K.
Cnet le ha dedicado un artículo a este interesante asunto y nos ha animado a hacer lo mismo. Después de décadas con televisores basados en electrónica analógica y una resolución de pantalla estable, a medida que las pantallas que poblaban nuestros hogares fueron contando con mayores dosis de electrónica digital, empezó la carrera de las resoluciones. Primero llegaron los modelos deAlta Definición (HD, o High Definition) con 720 líneas horizontales, lo que ya era un gran salto frente a las 576 tradicionales (de las cuales se mostraban básicamente unas 400). Desde siempre los televisores, por limitaciones técnicas, habían mostrado las imágenes en dos fases, líneas pares primero e impares después, y estos primeros televisores de alta definición lo hacían así. Este “escalón tecnológico” se denominó 720i de “interlaced” o entrelazado, que es el término empleado para hablar de ese sistema de dibujado de la imagen en dos fases.

Cada vez más resolución

Y aquí empezó un curioso fenómeno. Cualquiera que viera uno de aquellos televisores 720i en aquel momento recordará que su imagen era claramente mejor que lo existente hasta el momento. Era un gran salto de calidad. Pero lo mismo sucedió con cada nuevo avance. Al pasar a resoluciones superiores la nueva y mejorada resolución se veía mejor y con más nitidez y la que, hasta entonces era el máximo nivel de calidad, en ese momento, al poder compararla con una superior, evidenciaba sus limitaciones y perdía su atractivo. Cada nuevo estándar hacía inmediatamente viejo al anterior, al que dejaba obsoleto en términos de calidad de imagen.
La evolución de la electrónica hizo que a los 720i les sucediera una versión mejorada, 720p (de progressive o progresiva, que pintaba todas las líneas de la imagen en un solo cuadro). Y a estos les siguieron los semi-estándares de 1080i y 1080p. Sí, lo has adivinado, estos tienen 1080 líneas en vertical que, en un caso se dibujan de forma entrelazada y en el otro de forma progresiva. Cada incremento de resolución da como resultado una imagen con más detalles, pero la resolución, como ocurre con la potencia de sonido en los equipos de audio, es sólo parte de la historia. La electrónica que se encarga de procesar esas señales puede ser mediocre, correcta o espectacular. Y eso dará lugar a imágenes en movimiento con una fluidez, reproducción de color y nitidez mediocres, correctas o espectaculares. Como en un equipo de sonido no es lo mismo tener un sonido de gran volumen y calidad mediocre o correcta que uno espectacular. El resto del televisor debe estar a la altura de la resolución que tiene su pantalla. Aunque esa es otra historia. Hoy nos centraremos en la loca carrera de la alta definición, que no es poco.
Estos avances en la resolución de las pantallas iban en cada caso muy por delante de los avances en los contenidos que se podían mostrar en ellas. Un televisor no es un dispositivo como un ordenador que “va por libre”, sino que va ligado al desarrollo del mercado audiovisual en cada momento. Quiero decir que donde un ordenador, al que le basta tener un procesador y elementos compatibles con determinado sistema operativo y ecosistema para ser capaz de ejecutar sus aplicaciones. Y cuanto más rápido o mayor resolución tenga su pantalla, mejor y más cómodo trabajará quien lo utilice.
En un televisor, en cambio, una gran parte de lo que se muestre en él serán señales de TV recibidas por antena o cable así como las procedentes de reproductores de vídeo (DVD, Blu-Ray, Discos Multimedia, Set-top Boxes, etc.) y, por alta que sea la resolución de pantalla que tenga, se ve limitado a pintar en ella señales de la calidad de las que el estándar de la industria esté generando en cada momento. Y si los saltos en resolución de una generación de televisores a otra son rápidos, los cambios en el ecosistemas de los canales de televisión o los estándares de distribución de contenidos como cintas de vídeo, DVDs, Blu-Rays o superiores tienen plazos de renovación y cambio mucho más largos.
Esto ha hecho que durante años muchos consumidores tuvieran en sus casas televisores fantásticos con prestaciones que iban muy por delante de lo que permitían las señales que recibían. No ha sido hasta hace bien poco que se ha creado una oferta televisiva de canales de alta definición a través de antena, la mayoría de 720 líneas y algunos de 1080, en que un televisor de última generación ya sí ha podido disponer de una significativa oferta audiovisual.
Aún así, para disponer de una oferta audiovisual completa de alta definición el camino pasa por contratar una plataforma de vídeo digital como las que ofrecen los operadores de comunicaciones (Telefónica, Vodafone, Orange, etc.) o contratar canales de contenidos on-line (Wuaki.tv, Netflix, Amazon, etc.) que van unidos a una conexión a Internet de alta velocidad, en general de fibra óptica.

El siguiente escalón: 4K

Pero los fabricantes de televisores tienen mucha más prisa por innovar en sus modelos de lo que puede asumir el mercado televisivo, y a los modelos de 1080p les han seguido otros con siglas poco comprensibles como 2K, UHD, 4K e incluso 8K. ¿Qué quieren decir estos términos?
Como norma, en los televisores se da una única cifra de resolución, que es la resolución vertical. Esto es, 720 o 1080. Las pantallas panorámicas tienen, en general, una relación entre el lado largo y el corto de 1,78:1, por lo que las resoluciones completas más populares son éstas: 1.280 píxeles de ancho por 720 píxeles de alto o 1.920 píxeles de ancho por 1.080 píxeles de alto. La primera está casi olvidada y es la de 1080 el verdadero estándar hoy en día. Lo que sucede es que no siempre se la denomina sencillamente como 1080 sino que se emplean otros nombres como Full HD, FHD, High Definition o 2K. Este último es el que siembra la confusión, ya que es comercialmente más potente y sonoro emplear el término 2K (2.000) que 1.080. Lo que pasa es que lo complica todo por que ese 2K (2.000) se refiere a la resolución horizontal que, por cierto, no es de 2.000 sino de 1.920. Casi, casi.
Y como herederos del 2K aparecen los siguientes escalones: 4K y 8K. Que, como imaginarás, tienen respectivamente 4.000 píxeles y 8.000 píxeles en horizontal. Bueno, casi. La resolución horizontal real que ofrecen es de 3.840 y 7.680 píxeles respectivamente. Lo que pasa es que en el mundo de los proyectores personales y para salas de cine, que también se han digitalizado, sí hay unos estándares 2K y Cinema 4K que, aquí sí, tienen 2.000 y 4.000 píxeles en horizontal. En el cine no se especifica la resolución vertical porque no es fija, depende de la relación de aspecto elegida puede variar.
Como ves, lo que pasa es que se han “redondeado” las cifras de resolución horizontal de 1.920, 3.840 o 7.680 a 2K, 4K u 8K. Matemáticamente es falso pero perceptualmente no creo que haya ningún ojo humano en la Tierra que note la diferencia en resolución entre una pantalla de 3.840 puntos y una de 4.000. Me parece imperceptible la diferencia.
Lo que sucede es que donde la primera generación de alta definición hacía referencia a la resolución vertical (720, 1.080), esta nueva generación se ciñe a la resolución horizontal (4K, 8K) y para liarlo todo lo que antes se llamaba 1080 (verticales) ahora se llama 2K (horizontales).

¿Por qué tener un único nombre?

Por si esta jungla de términos no fuera suficiente, muchos fabricantes han empleado otros distintos. Aquí tienes un resumen con las principales resoluciones y sus nombres (según Cnet):
  • 720p (1.280 x 720 píxeles): se conoce como HD o High Definition.
  • 1080p (1.920 x 1.080 píxeles): también llamada Full HD, FHD o 2K.
  • WUXGA (1.920 x 1.200 píxeles): acrónimo de Wide Screen Ultra eXtended Graphics Array.
  • 2K (2.048 píxeles en horizontal).
  • UHD (3.840 x 2.160 píxeles): conocida como 4K, Ultra HD o Ultra-High Definition.
  • Cinema 4K (4.096 puntos en horizontal): también se denomina sencillamente 4K.
  • 8K (7.680 x 4.320 píxeles): todavía experimental y por ahora sin más sinónimos.
En televisores encontrarás las resoluciones de 720p, 1080p, UHD o, en modelos experimentales, 8K. Las resoluciones WUXGA, 2K o Cinema 4K suelen emplearse con monitores o proyectores. Al final lo que nunca falla es que, ante la duda, te bases en la resolución de la pantalla. Esto es, que aunque ofrezcan un modelo como UHD, tu pidas que te den el dato de 3.840 x 2.160 píxeles para saber si es la misma o no que otra pantalla con la que la estés comparando.
Sobre todo, dado que hablamos de dispositivos para contemplar imágenes en movimiento, no importa si uno tiene una resolución ligeramente superior a otro. Lo que debería hacerte inclinar la balanza hacia uno u otro lado debería ser la calidad de imagen que ven tus ojos. Una vez elegido un “escalón” de definición, sea 1080p, 4K o el que sea, selecciona el resto de características que para ti sean esenciales (precio, extras, diseño, etc.) y acota la oferta filtrándola por esos parámetros. Cuando lo hagas, la lista de candidatos se habrá reducido considerablemente. Entonces enfréntalos visualmente.
Compara lo que te hace sentir cada televisor al ver imágenes en ellos. De hecho, si puedes, intenta ver en cada uno secuencias con las resoluciones estándares que recibirás en casa (720, 1080, alguna señal analógica de menor calidad, fotografías digitales de 10 o más megapíxeles, etc.). Con todos esos ejemplos, tus ojos serán el mejor juez para saber que televisor llevarte. Porque todo esto de las siglas tiene su momento, pero no debe hacernos perder el sentido de todo que no es más que disfrutar visualmente de contenidos.
Imágenes: Wikipedia (“8K UHD, 4K SHD, FHD and SD” by Libron y “Cptvdisplay” by Wags05)

lunes, 29 de junio de 2015

Networking - ¿Qué es un Router?

Lo que los usuarios quieren de una red es acceder a las páginas web, navegar por internet, enviar correos electrónicos, descargar música, trabajar en red, etc. Independientemente de esto el servidor puede estar dentro de su propia red o al otro lado del mundo. Un ingeniero de networking sabe que el reponsable de hacer en envío de paquetes en la red es el router, desde el origen hasta el final.

router.jpg
El router tiene la tarea de conectar múltiples redes. El router se compone de varias interfaces, donde a cada interfaz le colocaremos una IP. Ahora bien, cuando un router recibe un paquete en una interfaz, este determina qué interfaz usar para enviar el paquete a su destino. La interfaz que usa el router para enviar el paquete puede ser una red conectada a otro router que se usa para alcanzar la red de destino.
Las redes que se conectan a un router pueden ser redes de área local (LAN) y redes de área extensa (WAN). Nos encontramos que por lo general las redes de tipo LAN son Ethernet (que se componen por dispositivos como PC, impresoras y servidores)  y en el caso de las redes WAN lo común es que se usen para conectar una LAN a la red del ISP (Proveedor de servicios).
Los puntos más importantes a destacar sobre un router son:
  • Determinar la mejor ruta para que un paquete pueda ser enviado.
  • El envio de paquetes hacia su destino final.
Ahora bien, los routers usan protocolos de enrutamiento para aprender y conocer las redes remotas y asi poder construir sus tablas de enrutamiento ¿para que es una tabla de enrutamiento? Bien, la tabla de enrutamiento contiene las IP de las redes destino que el router ya conocio por medio de protocolos de enrutamiento.
Por poner algunos ejemplos de protocolos de enrutamiento, listare los siguientes:
  • RIP V1
  • RIP V2
  • OSPF
  • IGRP
  • EIGRP
Nota: Te dejo este post que escribí sobre "Configuracion básica de un Router"
Un placer, @telecristy.
- See more at: http://www.codejobs.biz/es/blog/2014/04/24/networking-que-es-un-router#sthash.Z4Co9mGF.dpuf

martes, 9 de junio de 2015

La importancia de mantener privada tu información en las Redes Sociales

Recuerda que toda la información que subes a las redes sociales puede ser usada en tu contra en algún momento dado, te dejo esté vídeo para que veas lo que podría llegar a pasar si no mantienes en privado tu información personal.

- See more at: http://www.codejobs.biz/es/blog/2013/01/22/la-importancia-de-mantener-privada-tu-informacion-en-las-redes-sociales#sthash.tA52RgSu.dpuf

Principios de la auditoría


auditoar.png
Algunos de los principios publicados por la ISACA son:

La formalidad

Las responsabilidades, atribuciones y obligaciones que abarca la función de auditoría de los sitemas de información deben documentarse de manera apropiada o formal en unos estatutos de auditoría en el caso de auditoría interna, o en una carta de encargo o contrato en el caso de la auditoría externa.

Independencia
En las cuestiones relacionadas con la auditoría, el auditor de sistemas de información debe ser independiente de la organización auditada tanto en actitud como en apariencia.
La función de auditoría de los sistemas de información debe ser lo suficientemente independiente del área que se esté auditando para permitir realizar de manera objetiva la auditoría.

Ética y normas profesionales

Al igual que otros colectivos profesionales, distintos organismos han publicado unos códigos de conducta o normas deontológicas que el auditor de sistemas de información ha de cumplir. Asi el auditor que sea miembro de ISACA debe acatar el código de ética profesional de ISACA, de lo contrario se pueden tomar medidas disciplinarias.

Diligencia profesional

EL auditor debe ejercer la atención profesional correspondiente y el cumplimiento de las normas aplicables de auditoria profesional.

Idoneidad

El auditor de sistemas de información deber ser técnicamente idóneo y tener la experiencia y los conocimientos necesarios para realizar el trabajo de auditor.

Planificación

El auditor de sistemas de información debe planificar el trabajo de auditoría para satisfacer los objetivos de la auditoría y para cumplir con las normas de auditoría aplicables a la profesión.

Ejecución de la auditoría

Durante el transcurso de una auditoría, el auditor de sistemas de información debe obtener una evidencia adecuada (fiable, relevante y útil) y suficiente para lograr los objetivos de la auditoría. Los hallazgos y conclusiones de la auditoría se deben basar en el análisis e interpretaciones apropiados de dicha evidencia.

Fuente: Auditoría de tecnologías y sistemas de información.

Un placer, @telecristy.
- See more at: http://www.codejobs.biz/es/blog/2014/04/21/principios-de-la-auditoria#sthash.5OZN5M5S.dpuf

Aprendiendo Redes: Diferencias entre Cable Cruzado y Cable Directo

cables.jpg

Aprende en este vídeo las diferencias entre un cable cruzado y cable directo.
- See more at: http://www.codejobs.biz/es/blog/2014/10/29/aprendiendo-redes-diferencias-entre-cable-cruzado-y-cable-directo#sthash.fTZPgntC.NeWSLb1x.dpuf

miércoles, 29 de abril de 2015

Protocolos


  1. Protocolo de contención simple: solo puede transmitir desde una ubicación al mismo tiempo, la información se transforma en paquetes que son enviados sin revisar si el canal esta libre.
  2. Protocolo de control de transmisón: asegura los paquetes de información que no contengan errores al ser enviados abriendo aplicaciones como http.
  3. Protocolo de paso de testigo (token): es un paquete con contenido especial que permite transmitir al destinatario que posee el token. Cuando nonguna estacion necesita transmitir, el testigo o token va circulando por toda la red cuando una estación transmite, debe pasar el token a la sig estación.
  4. Protocolo de barrido o poleo: una unidad de procesamiento inicia el barrido o poleo a las unidades de recolección, el receptor es quien hhala solicitado la información o a quien vaya dirigid0. 
Definiciones
Protocolo: Es un conjunto de reglas usadas por computadoras para comunicarse unas con otras a través de una red. Un protocolo es una convención o estándar que controla o permite la conexión, comunicación, y transferencia de datos entre dos puntos finales. 
CSMA: Carrier sense multiple access o Acceso Múltiple por Detección de Portadora , el fin es evitar colisiones de infromacion
CSMA/CD: Acceso múltiple con detección de portadora y detección de colisiones. Red CSMA que tiene la capacidad de detectar los errores que resulten al transmitir simultáneamente varias estaciones.
CSMA/CA: Acceso múltiple con detección de portadora y prevencion de colisiones. Cada equipo indica su intención de transmitir antes de transmitir los datos. De esta forma, los equipos detectan cuándo puede ocurrir una colisión.

sábado, 25 de abril de 2015

Banda ancha


Suscripciones de banda ancha en 2005.
En telecomunicaciones, se conoce como banda ancha a la red (de cualquier tipo) que tiene una elevada capacidad para transportar información que incide en la velocidad de transmisión de ésta.1 Así entonces, es la transmisión de datos simétricos por la cual se envían simultáneamente varias piezas de información, con el objeto de incrementar la velocidad de transmisión efectiva. En ingeniería de redeseste término se utiliza también para los métodos en donde dos o más señales comparten un medio de transmisión. Así se utilizan dos o más canales de datos simultáneos en una única conexión, lo que se denomina multiplexación (véase sección más abajo).
Algunas de las variantes de los servicios de Fiber To The Home son de banda ancha. Los routers que operan con velocidades mayores a 100 Mbit/s también son banda ancha, pues obtienen velocidades de transmisión simétricas.
El concepto de banda ancha ha evolucionado con los años. La velocidad que proporcionaba RDSI con 128 Kb/s dio paso al SDSL con una velocidad de 256 Kb/s. Posteriormente han surgido versiones más modernas y desarrolladas de este último, llegando a alcanzar desde la velocidad de 512 Kb/s hasta los 150 Mb/s simétricos en la actualidad.

Velocidad de la banda ancha[editar]

La banda ancha no es un concepto estático, toda vez que las velocidades de acceso a Internet se aumentan constantemente. Las velocidades se miden por bits por segundo, por ejemplo, kilobits por segundo (kbit/s) o megabits por segundo (Mbit/s). La velocidad mínima para considerarse banda ancha varía entre los países e, incluso, dentro de un país la autoridad puede considerar como banda ancha un valor de velocidad distinto de aquel que el operador estima como banda ancha. Se ha propuesto que una manera para determinar la existencia de banda ancha es aquella basada en los servicios a los que se puede tener acceso (p. ej., rápida descarga de archivos de Internet, calidad de audio equivalente a un CD, servicios de voz interactivos). La amplia disponibilidad de banda ancha se considera un factor para la innovación, la productividad, el crecimiento económico y la inversión extranjera.
Al concepto de banda ancha hay que atribuirle otras características, además de la velocidad, como son la interactividaddigitalización y conexión o capacidad de acceso (función primordial de la banda ancha).
Patterson ya hablaba de que la conexión de banda ancha depende de la red de comunicaciones, de las prestaciones del servicio. En su libro Latency lags bandwidth. Communications of the ACM escrito en 2004 cuenta que el retardo es un aspecto crítico para las prestaciones de un sistema real.

Multiplexación[editar]

Las comunicaciones pueden utilizar distintos canales físicos simultáneamente; es decir multiplexar para tener acceso múltiple. Tales canales pueden distinguirse uno de otro por estar separados en tiempo (multiplexación por división de tiempo o TDM), frecuencia de portadora (multiplexación por división de frecuencia, FDM o multiplexación por división de longitud de ondaWDM), o por código (multiplexación por división de código, CDMA). Cada canal que toma parte en la multiplexación es por definición de banda estrecha (pues no está utilizando todo el ancho de banda del medio).

Connotación jurídica[editar]

Implica el derecho a acceder a un Internet de alta velocidad. Es decir, el derecho a acceder a un servicio eficiente, de alta velocidad y gran capacidad de transmisión de información. La banda ancha resulta importante, porque con ella se puede acceder a otros servicios que ofrece el Internet.

México[editar]

La Constitución Política señala, en su artículo sexto, el derecho de acceso a las tecnologías de la información, incluyendo la banda ancha e Internet.
Su ley reglamentaria, denominada Ley Federal de Telecomunicaciones y Radiodifusión, establece en su artículo 2 que: “En la prestación de dichos servicios estará prohibida toda discriminación motivada por origen étnico o nacional, el género, la edad, las discapacidades, la condición social, las condiciones de salud, la religión, las opiniones, las preferencias sexuales, el estado civil o cualquier otra que atente contra la dignidad humana y tenga por objeto anular o menoscabar los derechos y libertades de las personas”.2
Asimismo, define la banda ancha como “el acceso de alta capacidad que permite ofrecer diversos servicios convergentes a través de infraestructura de red fiable, con independencia de las tecnologías empleadas, cuyos parámetros serán actualizados por el Instituto Federal de Telecomunicaciones periódicamente”.3
Dicha ley establece la obligatoriedad del Estado, de implementar políticas públicas de brindar acceso a las tecnologías de la información y comunicación, incluyendo el Internet de banda ancha para toda la población, haciendo especial énfasis en los sectores más vulnerables, con el propósito de cerrar la brecha digital entre individuos, hogares, empresas y áreas geográficas de distinto nivel socioeconómico.
De igual forma, establece que la Secretaria de Comunicaciones y Transportes implementará programas de acceso a la banda ancha en sitios públicos que identifiquen el número de sitios a conectar cada año de manera progresiva, hasta alcanzar la cobertura universal.
La Estrategia Digital Nacional programa las políticas públicas que permitan el derecho de conectividad de acceso a Internet de banda ancha a través del Programa México Conectado. Para ello, se prevé el acceso a Internet de banda ancha en sitios públicos identificando el número de edificios a conectar cada año, hasta alcanzar la cobertura universal. Se buscará que en los sitios públicos la conectividad de banda ancha cuente con capacidad suficiente para satisfacer la demanda y, por tanto, deberá considerarse el número potencial de usuarios en cada sitio.