edición general
86 meneos
6721 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear

Mitos y realidades de los monitores a 144 Hz

Pasar de jugar a 60 Hz y hacerlo en un monitor de 144 Hz es milagroso. Es como pasar de la noche al día. Eso es lo que afirman muchos de los usuarios —no todos, cuidado— que han dado el salto a monitores especialmente orientados a gamers, pero ¿es esa diferencia tan destacable?.

| etiquetas: monitores , tecnología
Comentarios destacados:                        
#31 Durante muchos años he desarrollado videjuegos, y luego además implementé una tarjeta gráfica en javascript, con el fin crear una web que te permitiese conectarte a tu escritorio (o teléfono) y ver su pantalla de forma remota, sin enviarte video ni imagenes. (para ser honestos, solo unas partes especificas, un subconjunto de la api que implementan las gráficas)

Voy a intentar explicar este asunto de forma entendible incluso para gente que no tiene ni idea informática, o que muestran dudas razonables, como #3 #5 y #7 #6

Cuando usamos un aparato electrónico que usa luces para generar imagenes artificiales, estamos intentando imitar lo que tu ojo percibiría en una situación concreto imaginaria. Es decir, si en tu juego aparece un dinosaurio, tenemos que ser capaces de modificar las luces que emite el aparato, para que a tus ojos lleguen unos fotones lo mas parecidos posibles a los que llegarían si tuvieses delante un dinosaurio.

Usar muchas linternas pequeñitas de colores para que te…...
#5 He hecho un ejemplo de un degradado en una imagen de 24bit (16M de colores posibles) donde se ve el escalonado. i.imgur.com/WIn4Xd4.png

1024 colores posibles son unos 10 colores posibles por canal... si no eres capaz de ver un escalonado en un degradado de 10 colores, es que tienes serios problemas de visión.
#5 El ser humano puede distinguir entre mucho más de 1024 colores. 16M de colores son 8bit por canal (256 niveles por canal). Si se da el caso que la imagen que ves en la pantalla solo usa azul, o rojo o verde... o incluso gris, verás un bonito escalonado de colores.
Yo nunca he entendido la obsesión por la calidad de imagen y sonido cuando el ser humano en sí tiene bastante capadas sus habilidades de percepción, por no decir que la obsesión gráfica ha hecho obviar el punto indispensable en muchas películas y juegos, el argumento.
#3 Yo tampoco lo he entendido.
El ojo humano apenas si es capaz de distinguir 1024 colores como para distinguir entre 16 millones o lo que nos quieran vender los vendeburras de los fabricantes.
Durante muchos años he desarrollado videjuegos, y luego además implementé una tarjeta gráfica en javascript, con el fin crear una web que te permitiese conectarte a tu escritorio (o teléfono) y ver su pantalla de forma remota, sin enviarte video ni imagenes. (para ser honestos, solo unas partes especificas, un subconjunto de la api que implementan las gráficas)

Voy a intentar explicar este asunto de forma entendible incluso para gente que no tiene ni idea informática, o que muestran dudas…   » ver todo el comentario
#31 Además de que el ojo humano puede ver más colores de los que puede representar un monitor, por bueno que este sea.
#36 eso depende exactamente de lo bueno que este sea. ¿Que te hace pensar que nunca vamos a poder controlar unas lucecitas de colores con tanta precisión en la proporcion entre rojo, verde y azul, como puede percibir tu ojo? Solo es un reto de ingenieria y ciencia. (e industrial, si queremos que esas pantallas las pueda comprar la gente y no ser solo prototipos en laboratorios)
#36 por cierto, lo he buscado... el ojo humano puede ver 7 millones de colores, eso significa que este monitor:

www.amazon.es/iiyama-ProLite-X2380HS-Plana-pantalla/dp/B00BP566UW/ref=

Puede crear mas colores que tu ojo puede ver, pues puede crear 16,78 millones de colores, muchos mas que tu puedes percibir :-)
#42 Eso simplemente dice que puede representar más colores de los que el ojo humano puede distinguir en ese rango de colores, pero el ojo humano puede distinguir mas de los que suele representar un monitor.
Por que el monitor se basa en tres colores (RGB) para generarlos todos y nuestro ojo dispone de tres conos que serian equivalentes al RGB pero en diferentes frecuencias.
www.ishoottravels.com/wp-content/uploads/2016/10/spazio-colore.jpg
Por ejemplo, el adobe RGB que se ve en esta…   » ver todo el comentario
#51 Obviamente si el color minimo y maximo del monitor no están alineados con el mínimo y máximo del ojo, podría suceder que un monitor pueda representar mas colores que el ojo, pero no todos los colores que el ojo puede percibir.

¿Pero que te hace pensar que un monitor moderno normal no tiene el mismo espectro que el ojo? y mas interesante todavía, que te hace pensar que no podrá hacerlo nunca, como se ha sugerido?
#64 en el dibujo (locus) puedes ver el rango de colores que ve el ojo humano comparado a lo que puede mostrar un monitor= los colores que caen dentro del triángulo sRGB
No hay duda que cada vez seran mas fieles pero ten en cuenta que los conos encargados de ver el rojo tambien ven rango en el verde.
se podría añadir un cuarto color al monitor para ampliar el rango.
de todas formas la percepción del color es cosa del cerebro y como los procesa.
No soy ningún experto
#31 Gracias, comentarios como este son los que hicieron grande a Menéame. Se agradece descubrirlos de tanto en tanto. Mucho mejor, a veces, ser simple pero comprensible que exacto.
#31 Hola amigo, gracias por currarte una respuesta tan larga y didáctica. Soy óptico optometrista, por lo que desde mi formación y experiencia desde el punto de los limites del ojo trataré de matizar algunas cosas de tu, para mí, brillante comentario.

Nuestro aparato, que tiene lucecitas muy pequeñas, tendría que tener lucecitas tan pequeñas, como la luz mas pequeña que nuestro ojo puede ver. supongo que te refieres al mosaico de fotorreceptores que dispone el ojo humano. La radiación…  media   » ver todo el comentario
#50 me ha encantado tu comentario :-)

Cuando escribí mi comentario, me quedé pensando que si bien había intentado simplificar al máximo el modelo para comprender las pantallas, obviamente por mi formación, mi conocimiento del ojo es mucho, mucho mas limitado. La verdad es que este tipo de intercambio que acabamos de tener de conocimientos cruzados desde dos ciencias tan distantes, y de forma tan constructiva, parece mentira que se haya dado en meneame, he comprobado 2 veces que no me he equivocado y que no estaba en reddit, pero de color naranja ;)

Gracias!
#83 Hombre, si sigo en menéame es para este tipo de charlas, que cada vez escasean más, todo hay que decir.

Ya me creía que pasarían inadvertidos ambos comentarios, pero por suerte parece que han tenido cierta visibilidad. :-)

Yo también he simplificado mucho, como podrás imaginar. El mundo de la visión es muy muy complejo, yo sigo estudiando y trabajando en él y aprendo cada día. Aunque, como la visión es mucho más cerebral que del ojo (en realidad el cerebro corrige muchísimos defectos…   » ver todo el comentario
#31 Muchas gracias por la explicación, muy didáctica y completa.
#66
Pues luego dice tonterias como que el ojo humano solo es capaz de distinguir 7 millones de colores. Es decir, no sabe lo que es una paleta de colores ni lo que es una pantalla.
#68 Según tú, ¿cuántos son?
#31 Gracias por la explicación, y por recordármelo que ya ni me acordaba de lo que di en el ciclo medio y los dos superiores que hice respecto a imagen y vídeo. Es como dices, pero sigo manteniendo lo que dije. Sigue habiendo mucho marketing, tanto que por ejemplo caso del HDR se le podría haber metido a cualquier monitor y televisor (incluso CRT) porque como expliqué en otro comentario no es una técnica nueva, como tampoco lo era el 3D.

Y luego tienes que tener la visión perfecta porque…   » ver todo el comentario
#78 Hola a tí también, como optometrista me veo en la obligación de aclararte alguna cosilla sobre tu problema, sólo para que tengas las cosas algo más claras.

Describes un tipo de estrabismo que te provoca diplopia, por lo que deduzco que, o es intermitente (por un problema de estrabismo latente que ha acabado por manifestarse, ya que el sistema nervioso que controla los músculos extraoculares del ojo no consigue mantener los ojos rojos por exceso de trabajo, cambios en la graduación o la…  media   » ver todo el comentario
#97 Gracias por la explicación. El caso es que mi oftalmólogo no tiene ni idea de porque se ha producido esta diplopia. Lo único que puedo decir es que antes no la tenía, y con antes me refiero unos cuantos años. Y ese antes indica tambien antes de que me operaran del ojo izquierdo mediante la implantación de una lentilla Intraocular o ICL (ya que tenía 11 dioptrías en el ojo izquierdo, lo que hacía imposible el uso de la técnica/cirugía refractiva mediante láser)

Salu2
#9 Yo llevo muchos años como visitante de Menéame, y me cree una cuenta hace años, y fue solamente hace poco que dije de volver a meterme, y es que, si quitas a trols, opinadores a sueldo de partidos políticos, spamers varios y a la gente que ha venido a hablar de su libro, hay usuarios como #31, que exponen y contribuyen a un debate interesante, o usuarios que te descubren páginas, aplicaciones, películas o musica, a veces te hacen cambiar de opinión a ti y a veces eres tú el que les cambia de opinión, y aunque esos usuarios fueran cuatro gatos yo creo que es lo que hace que visite esta página.
#31 Me voy a explicar un poco en mi excepticismo, si, comprendo las gamas de calidades, así como para diseño se necesitan monitores que te muestren los colores reales o para montaje de video profesional requieres una buena maquina.

He trabajado mucho tiempo con ordenadores, arreglando los y vendiéndolos, desde la época que se volvían obsoletos cada 6 meses y con un ordenador gama media alta no podías jugar a juegos que habían sacado dos meses después de comprartelo.

El mercado informático…   » ver todo el comentario
#31 Una cosa es cuantos colores existen en la naturaleza y cuantos colores somos capaces de percibir, por ejemplo no podemos ver la gama infrarroja ni la UV.
Pero no hace falta irse a estas gamas de colores a las que nuestro ojo no es sensible, con algunas gamas de colores dentro del espectro visible también pasa, no todo el mundo puede ver la misma cantidad de colores, por ejemplo esto suele verse con el color añil, unos ven el color añil y otros ven un color azul oscuro, no ven la diferencia…   » ver todo el comentario
#31 Grandísima explicación, pero una matización.

En en el movimiento hablas de que los swres humanos sacan fotos...
Bien, esto es lo que se llamó persistencia retiniana y está descartado hace mucho tiempo. No funciona así. De hecho se sabe que cosas no son, como la persistencia retiniana, pero el funcionamiento de la percepción del movimiento aún no se entiende bien como funciona.

Una explicación más detallada: es.wikipedia.org/wiki/Persistencia_de_la_visión
#5 Deberías de revisar tus fuentes de información. Se estima que el ojo humano puede discernir aproximadamente un millón de variaciones cromáticas (mas o menos). Aunque hay estudios que lo suben hasta diez millones.
#34 El hecho de mirar dos rojos por separado y saber si son idénticos es muy difícil, pero por comparación la capacidad de distinguir colores es muy fina.
#5 Creo que estas confundiendo distinguir colores con nombrar colores.
#5 el ojo humano distingue unos 10 millones de colores, las mujeres alguno más, creo que rondan los 12 millones
#70 10 millones, 12 millones o 100 millones. Los que tu quieras distinguir.

Apostaría 500 pavos que seguro que no eres capaz de acertar dos colores iguales entre 16.000. Si me dices que si ya te digo yo que es mentira.

¿Dime cuantos colores hay en este degradado?

www.kn3.net/Beriku/30-B-A-C-D-4-4-C31-PNG.html
Hay mucho marketing y muchas personas sugestionadas, por eso algunas notan diferencia (no lo digo que sean todas ni mucho menos, pero hay personas que les pones una imagen con varios cuadrados de idéntico tamaño y le dices "Mira que cuadro ¿a que se vé más grande que el otro?" y dicen que sí). Además que primero debes tener perfectamente la vista y segundo tener un equipo muy equlibrado sin cuellos de botella.

#3 Para mí es como mirar una casa solo por la fachada. De hecho un juego para mí, puede tener los gráficos del siglo que si no tiene una buena jugabilidad y un buen argumento será una mierda, con perdón.

Salu2
#7 Pues que quieres que te diga, después de jugar a DOOM (2016) a 144 fps con un input lag minúsculo no quiero volver a 60fps ni de coña.

Yo era muy escéptico con los monitores con tasas de refresco superiores a 60fps. Estaba convencido de que no notaría la diferencia... y cuando lo probé por primera vez se me cayeron los huevos al suelo.
#12 El problema no es si notas la diferencia o no es si el cambio es tan abismal como para justificar el precio de un monitor 144 Hz (siempre que sea esa frecuencia real claro).

Y es como el tema del HDR que mucha gente ven una panacea (de hecho es una técnica fotográfica muy antigua basada en la superposición y combinación de varias imágenes sacadas con diferentes niveles de exposición es distintas zonas, de tal manera que al combinarlas todas en una sola se vea un nivel de exposición…   » ver todo el comentario
#7 Ahí está, cuando trabajaba vendiendo equipos me llamaba mucho la atención los monstruos que pedía la gente, daba igual que le recomendaras comprar una pieza más barata o cara, ellos venían con la idea ya de todo lo más caro, o la gráfica de 800 euros, 8 GB de RAM y el procesador de 150 euros, o de placa una asrock mierda de 50 euros. Luego claro, hacías benchmarking del bicho y llegaba un ordenador de mitad de precio y le hacía la zancadilla, pero el cliente siempre decía lo bien que se veía…   » ver todo el comentario
#7 supongo que tendrás un monitor de 60Hz o similar, coge tu ratón y muéve la flecha por la pantalla a toda velocidad, ves los saltos? a que la flecha parece desaparecer y aparecer cada dos centímetros más o menos (no hay movimiento continuo, es como un estroboscópio), apuesto a que sí, repite el proceso a 144Hz o incluso a 240Hz verás la diferencia, verás que la flecha aparece y desparece pero a menos distancia.

Eso aunque jugando no te parezca percibirlo realmente lo estás haciendo

PD: Y te hablo desde la experiencia de jugar a 75Hz con Freesync, que ya se nota con respecto a 60Hz sin FreeSync, pero he visto ese efecto en un monitor de 144Hz sin problemas y lo ve todo cristo, otra cosa es que jugando no te des cuenta
#3 Te pongo un positivo que te habían puesto dos negativos. La verdad es que cada vez Menéame da más asco.
Si tu comentario no es purista y les gusta te comen a negativos.
Joder, en una comunidad decente si crees que alguien que no está faltando al respeto está confundido, simplemente le comentas el xq, para así aprender todos.
Hace 2 semanas que estoy pensando en borrarme la cuenta de MNM.
#9 acabas de describir Reddit
#25 El qué? Dónde se respeta la gente o donde es como aquí?
#9 O a lo mejor es una forma fácil de mostrar disconformidad con un comentario que está diciendo una burrada.

Por cierto, es bastante peor la falta de respeto de exigir una explicación por el voto mirando a la gente por encima del hombro.
#9 A mi tmb me esta dando puto asco meneame, desde hace unos meses parece que muchos de Forofachas se están pasando aqui, ya da vergüenza ajena leer los comentarios y ver la cantidad de cuñaos que hay(y con votos positivos) ..

Incluso hay desgracias humanas que deberían de ser eliminadas de meneame y siguen difundiendo mentiras sin parar.. (@professor)
#48 Oh, estás descubriendo que tu verdad moral no era la verdad universal!

No te preocupes, acéptalo, forma parte del proceso de crecer como persona.
#72 Aceptar comentarios machistas, misoginos, fascistas o apoyando a las élites imperialistas que cada dia nos hacen mas pobres? Nunca

Si tu te conformas con tu vida de mierda alla tu, pero somos muchos los que queremos cambiar las cosas
#9 Yo lo que no entiendo es esa rabia desatada cuando un comentario genera un voto negativo. ¡¡¡Tío, no pasa nada, es un puto voto negativo en Menéame!!!. La vida continúa igual. Yo utilizo el positivo- negativo como un "me gusta" vs "no me gusta" pasándome bastante por el forro las indicaciones de Menéame que son, para mí, en extremo puristas. No odio a nadie cuando me casca un negativo y no quiero a nadie cuando me casca un positivo. No sé, negativos y positivos me parece…   » ver todo el comentario
#3 La tasa de refresco afecta a los fps máximos, a nivel conpetitivo y en shooters afecta mucho al tiemoo de reacción.
#3 El argumento no es la única clave videojuegos, lo importante es que sean entretenidos. Unos lo consiguen con el argumento, otros con la jugabilidad y las mecánicas, otros con los gráficos y el rendimiento, otros con la inmersividad y otros con avatares con los que te sientes identificados. Muy pocos juegos lo consiguen todo a la vez.
#3 El argumento no es indispensable en los juegos. De hecho es casi irrelevante desde el punto de vista de un gamer competitivo, que son los gamers de verdad.
#22 eso es como decir que los jugadores de futbol profesional son los futbolistas de verdad.
#27 Lo cuál es correcto.

Lo demás son pachangas sin relevancia.
#43 hay más fútbol y deporte de verdad en una competición de alevines que en toda la FIFA junta.
#22 Mmmmm eso depende de la clase de jugón que seas. Yo no lo soy en absoluto (salvo con el punto Europa IV que tengo épocas que estoy todos los días un montón de horas dándole que te pego, en cambio puedo pasar hasta un año sin tocarlo)
Pero una vez descubierto esos juegos (ahora no recuerdo su nombre) que te atrapan más por su historia que por su jugabilidad, me lo he pasado pipa, disfrutado un montón pese a que la dificultad es cero y prácticamente vas guiado, pero son una maravilla en cuanto a jugar una historia. Me refiero a Life is Strange o los de Telltales games.

Y si. La mayor parte de las veces lo que importa es la jugabilidad en lugar de la historia, pero quizás con los años te apetezca más la historia.
#3 hace años argumentaba eso mismo ... con el cambio de 720p a 1080p

Vamos, eso si se nota, pero hay que fijarse,... en casual-mode, sin darle importancia, a mi me daba igual. Claro, mi colega paraba la imagen y argumentaba la "gran" diferencia. Era innegable que era diferente, pero vamos que yo, entretenido con el ocio, no le daba mucha importancia. Y ya le avisaba que para mi creo que era el ultimo salto en calidad de imagen que me iba a importar.

A día de hoy, tengo una buena…   » ver todo el comentario
#35 Yo en una tele de 47 pulgadas no distingo entre 720p y 1080, así que siempre intento bajarme las cosas en 720.

4k será para televisiones de más de 80 pulgadas.
#44 Si la usas como monitor y te la pones a 1m de distancia si que se nota. No solo influye el tamaño, también la distancia a la que la veas.
#35 Los 4k son como los 3D, una excusa para volverte a vender un televisor y las películas que ya tenías, que muchas veces no han sido grabadas con esa resolución o con el 3D y es un mero posproceso de imagen lo que aplican. Salvo Netflix (que además tienes que tener una red que te aguante la reproducción de esa burrada en streaming) y algunas excepciones no vas a encontrar contenido 4k en la televisión, ni las consolas sacan 4k, y sinceramente, gastar el doble o el triple en una televisión para un contenido ínfimo y que apenas vas a ser capaz de distinguir a la distancia de seguridad me parece un gol por la escuadra del departamento de marketing de las empresas.
#3 Hombre, pero hay diferencias.

En gamas altas ya no sé, pero entre el sonido que te dan unos cascos del chino de 3 € y unos Sony de 12 €, la diferencia se nota. Con los de Sony al menos no tienes ese sonido a lata que tienes en los cascos del chino, o los que te dan en el AVE.
#57 Aquí también hay marketing del bueno. Yo compré unos Sennheiser HD 205 que supuestamente eran la leche (+50 €). Y en diseño una porquería y en sonido mucho peor que unos Pioneer que tenía antes (que su equivalente ahora cuesta unos 25 €).

Salu2
#57 con los cascos es que está la coña de comprarse los cascos de 100 euros y engancharlos al puerto de la ac97 guarra del ordenador, o usarlos para reproducir MP3 de 128kbps. La gente se los compra y si, se escucha bien, pero tienen un pedazo de cuello de botella que con unos cascos normalitos de 20 euros vendría a ser más o menos igual.

Tengo unos skullcandy que no es que sean la polla, pero tienen un buen nivel de DB, poca distorsión, un buen aislamiento... Y me salieron por 20 euros. Para engancharlos al ordenador o al puerto Jack del hilo musical están más que bien.
-Ayer me compre un monitor 4k y 144hz, mis amigos me comentaron que no merecía la pena, pero sabes que? ahora juego mejor que antes con mi ps4.. y no veas como se ve el programa de Ana rosa.

pd; Pantomima Full
Según el artículo solo lo notan jugadores profesionales , a lo que yo añado a peña que se ha gastado 500€ en un monitor y les duele reconocer que han tirado el dinero.
#6 Yo no soy jugador profesional y es una delicia. Eso si, durante los primeros 20 min me mareaba ligeramente, pues mi cerebro interpretaba los movimientos como reales (algo parecido a lo que ocurre con los headset de VR).
#6 no tengo monitor de 144hz.

Pero he tenido y se nota, vaya si se nota.

Eso si: te hace falta q tu GPU vaya acorde y en el battlefield1 no lo vas a ver pq lo han roto con las actualizaciones.
#6 Yo me he gastado 700€ en un Benq XR3501 y no cambio ni el 21:9, ni los 144hz ni la curva ... Es el mejor gasto que he hecho desde que compré el monitor 21:9 de lg de 29pulgadas, el salto de 29 a 35 es interesante, pero el 60hz a 144hz es como la noche y el día.
#81 El mio es algo parecido, es un LG 34UC89G-B, son carísimos para ser 1080p, pero suscribo todo lo que dices, ya no hay vuelta atrás, ni el utrawide, ni los 144 hz los cambio por la resolución a 2K que ya se va un poco más de precio y necesitas una GPU muy potente, pero para jugar ya va bien un FHD de ese tamaño. Lo que puede notar un jugador profesional es el tiempo de respuesta, casi todos juegan con monitores TN de 1ms y 200 hz para arriba, pero yo a mis treinta y muchos no voy a notar 5 ms de lag, en cambio la tasa de refresco se nota mucho, odio el dark souls 3 a 60 hz capados y su relación 16:9, bueno eso y que es muy difícil.
Hay que estar muy ciego para no notarlo, la verdad.
#23 si pones una gtx760 en un 2k a 144Hz no veras la diferencia.

Segun se dice el ser humano no puede distinguir mas de 27hz....  media
#28 El artículo, en los comentarios, dice que estuvo probando los monitores con una 1070. Eso hace que el Battlefield 1 pille de 100 a 110 fps. No llega a 144 pero ya se nota el aumento de fluidez.
Y el mito de los 24 fps, me río. En realidad ese es el mínimo que necesita el ojo (bueno, el cerebro) para ser engañado por la ilusión de las imágenes fijas en movimiento.
#46 No. 24 fps es lo que usa el cine actual debido a que somos más sensibles al sonido que a la imagen, a partir de 12 fps solemos ver una imagen en movimiento. En el cine mudo era muy variable, muy artesanal dependía del sistema del proyector, lo normal eran 16 o 18 fps con lo que la imagen se veía como una imagen en movimiento normal (hoy día esas películas son vistas en televisión a 25 fps y por ello parecen aceleradas)
#28 Si vas a hacer eso, busca en google test ufo. www.testufo.com y que cada cual saque sus conclusiones, eso si, en un monitor de 144hz ... La cosa cambia mucho.
Más mitos que realidades...muy buen artículo!!
#2 Se nota pero hay monitores 144hz que tiene input lag terrible un aspecto que los fabricantes esconden.
Yo probé un 244hz y se notara pero a costa de ser puta mierda monitor con colores asco ángulos asco y lo peor la pantalla sangraba literalmente luz por todos lados si fuera un pantalla de 200e tendría un pase pero no costaba la hija de puta 500€
Yo tengo la esperanza en los oled y con 100hz reales y 1ms input lag seria una buena compra.
#4 Yo lo siento, pero desde que tengo el Benq XR3501 no vuelvo a los 60 hz ni a los monitores 16:9 ni a los planos ... Y cada persona que juega en mi PC dice exactamente lo mismo, 144hz >>> 50k
#73 Creo que es panel VA 144hz a costa de input lag un punto intermedio respecto a la aberraciones TN super rápidos pero calidad pésima de paneles.
No me gusta la relación pixel tamaño pero te lo ahorras en la vga.
#82 Lo se, pero el cambio entre la de lg de 29" y esta es una barbaridad, los colores de puta madre (se nota una ligera diferencia del IPS) y la resolución ayuda mucho a la gráfica, en breve compraré una 1080ti o 1180 y podremos exprimir esos 144hz bien bien.
#84 Si yo solo compro VA odio los TN y sueño con un oled salga alguno de 27-32 sin que te roben.
#4: Y un detalle adicional: 100 hz son un multiplo de 25 hz, cosa que ni 60 ni 144 lo son.

Es decir, ese monitor está adaptado a los estándares europeos, y el contenido europeo se verá mejor. Yo al menos estoy un poco harto de que aquí nos vendan productos pensados para EEUU, como si de teclados sin Ñ se tratase.
#2 A mi parecer la prueba no está enfocada correctamente.
Yo usaba un monitor de 144hz cuando jugaba en escena competitiva de shooters "clásicos" como Quake Live o CS. Y te puedo asegurar que hay una diferencia abismal de jugar a uno de estos juegos con un monitor de 144Hz.
¿Por qué pienso que la prueba no está enfocada correctamente? Porque este tipo de frecuencias de refresco se notan cuando tu gpu te puede dar de forma sobrada MÁS de 144fps. Que es lo que pasa con los shooters…   » ver todo el comentario
#53 Y para qué quieres que te de mas fps que Hz? Para tener cortes de imagenes? Si tienes un monitor de 144 Hz es para tener esos fps de forma constante, ni más ni menos, sobretodo en los shooters, que yo también he estado en el rango competitivo años atrás. También te digo que he conocido muchísima gente conocida en el mundo competitivo y flipamos con que hardware juegan, desde ratones de mierda de 8 pavos y pantallas gigantes pero a resoluciones de 720p. En los shooters es importante tener un…   » ver todo el comentario
#93 ¿Para qué quieres tener más fps? Sencillo, porque los fps que saca tu gpu no están sincronizados con los hz de tu monitor a no ser que emplees o bien v-sync o bien el nuevo g-sync. Y en ambos casos, sobre todo en el primero, aumenta la latencia de forma considerable. Eso se "soluciona" con unos fps mayores en el juego.

youtu.be/ucPDkoZM4Rc
#95 A eso me refiero, si te gusta ver imagenes cortadas por la desincronizacion Hz-Fps y no te molesta adelante, pero en los shooters, lo mismo que los fps son importantes, también lo es la sincronización de imagen.

La única forma de evitar el corte de imagen sin usar filtros y limitadores es o tener el doble de fps que Hz o tener la mitad. A medida que te alejas de los Hz, más notorio es el corte de imagen.

Por cierto, añado este vídeo sobre el daño vs FPS en los shooters, algo que poca gente conoce:

youtu.be/c4mQ4TqTI0M?t=53s
#98 Claro que es importante, pero es que los fps no se sincronizan de forma mágica con los Hz aunque tengas el mismo número de fps que de hz. Para eso hace falta que exista algún tipo de entendimiento entre la gpu y el monitor, llámese gsync, freesync o vsync. Sin alguna de esas 3 cosas te da igual.
Aunque a decir verdad yo pensaba como tú y capaba los fps del QL a 288, pero con el tiempo me di cuenta de que era mejor simplemente dejar a la gráfica sin capar.
#98 y #101
youtu.be/8vxfDvibnqw
En este video lo explica perfectamente nategentile. Para notar tearing jugando a más de 500fps tiene que haber una caída en los fps de más de 100, algo que practicamente nunca se produce si tienes una gpu medio en condiciones.
#2 Yo he visto un vídeo en YouTube (que no pasa de 60FPS) grabado de una partida a 144 y sinceramente, no se parece en nada a mis partidas a 60FPS. Es como ver un vídeo de colibrí grabado con la cámara rápida y luego reproducido lentamente. Cuando los movimientos de los personajes son fluidos y sus hitbox se corresponden perfectamente con al representación gráfica, no hay comparación posible.
De los "no veo diferencias entre 30fps y 60fps", y los "se ve igual 720p y 1080p", la nueva serie sobre monitores de 140Hz.
Yo cuando era pobre también decía tonterías como que 144hz es lo mismo que 60hz.

Es un mecanismo de autodefensa para sentirte menos desgraciado por no poderte permitir según que cosas.
#65 No es que no se note, es que si la tasa de frames no acompaña, no se nota nada.

Lo que es curioso es gente jugando con monitores 144hz a 45 fps de media y diciendo lo flipante que es su monitor.
#67 Dejad de tratar a la gente como idiotas. El que está pagando los hz extras sabe lo que son y busca la configuración adecuada en todos los juegos para que vayan a la mayor tasa posible.
En juegos ni idea, pero alguna serie que he visto en una televisión con alta tasa de refresco no me gustaba nada lo fluido que se movia, es una sensación muy rara, mi me da la sensación de cutre. Cuanta más alta es el refresco más real nos da la sensación y pierde la gracia, por eso el cine se graba a 24fps y no a 30fps por ejemplo.
#30 Tienes una idea errónea y te explico el motivo... cuando ves algo que funciona de forma nativa a muchos hertzios la sensación de suavidad y realismo es muy buena, es ahí cuando te entra tristeza al volverte a 60hz por ejemplo xD pero tú hablas de contenido de TV, cine, etc... ahí como bien dices suele estar grabado a 24fps/30fps y claro, una TV utiliza técnicas que aumentan los fps pero estos no son reales, no hay diferencia en el movimiento entre un fps y el siguiente, normalmente…   » ver todo el comentario
#41 Lo que se conoce como efecto telenovela, las TVs lo que suelen hacer es interpolar los 2 campos (entrelazado) que tiene una imagen completa de vídeo tanto en PAL como en NTSC.
El fotograma que intercalan en medio de ambos campos lo sacan de la mezcla del campo impar y el campo par, crean un campo intermedio entre ambos campos, en movimientos rápidos se puede distinguir muy bien el resultado de crear una imagen intermedia, que algunas TV lo hacen con más acierto que otras, dependiendo el filtro de interpolación que utilicen, como cuando en Photosop agrandas una imagen y dependiendo que tipo de interpolación utilices te saldrá un resultado mejor o peor.
#30: Puede ser peor: grabar a 30 o 60 fps con una luz a 100 hz (un fluorescente, por ejemplo).

Por alguna razón algunos fabricantes de cámaras no tienen en cuenta que en Europa (y otras regiones) hay que grabar a 25 o 50 para que no te quede el vídeo como el culo. :-(
El mundo real tiene más resolución y más fps.
Menos videojuegos y más vivir.
#33 ok y quien lo paga?
Una paleta de colores es un conjunto de colores arbitrario. Nada más. Normalmente, en informática, además, ese conjunto arbitrario de colores suele estar relacionado con una secuencia de símbolos que representan cada color.

Entonces, como los ordenadores son digitales y trabajan con estados binarios, se suele expresar el tamaño de la paleta en la cantidad de combinaciones que existen en un grupo de N bits. Por ejemplo, en informática se dice que una paleta es de 24 bits cuando cada color se…   » ver todo el comentario
#80 este comentario era una respuesta a otro usuario que estaba menospreciando las opiniones por aqui discutidas, sin ningun fundamento ni base, solo faltando y ya está.

Pero de alguna forma mágica, su comentario ha desaparecido y mi comentario ya no referencia al suyo.
Yo juego todos los dias a Quake live con mi Asus de 144hz y la diferencia es como la noche y el dia con mi anterior philips de 60hz. Ahora la imagen es mucho mas fluida y no se perciben tanto las imagenes frameadas cuando mueves el raton muy rapido.
Artículo un tanto raro.... comienza explicando las características clave en los monitores, bien, luego que no todo el mundo nota el aumento de hertzios, vale.... para luego decir que él no nota nada y solamente ve la ventaja en competitivo....

Bueno, los 144hz los nota todo el mundo, otra cosa es que considere que no merece la pena, tampoco es cierto que se note menos en unos juegos que otros, simplemente en un juego 2D no suele hacerse tan necesario, pero claro que se nota. Por último es muy…   » ver todo el comentario
Mejor con definición 8K.
Yo tengo uno de 144Hz y si se nota la diferencia, pero no tanto como se dice. Seguramente nunca me compre uno de 240Hz simplemente por la ley de valor de retorno.
#8 Se nota muchísimo, eso si a partir de 100-120fps no noto la diferencia en la mayoría de los juegos, aunque en cuanto más rápido se mueva la imagen, más se nota. En los juegos muy frenéticos o de mucha velocidad se notan bastante las caidas de 144hz a 100hz.
Televisiones 4K para ver series y pelis piratillas. xD xD
#13 o para compartir Netflix...
#13 ¿Acaso no te puedes descargar una película 4K de buena calidad?
Se notan los 144Hz? Depende del ojo, aunque un poco sí se nota, pero no es tan bestial como pasar de 30fps a 60 fps.

144Hz es la salvación de los que juegan competitivo? Reducirlo todo a los fps o el input lag es no saber lo que hay detrás de un partido online. Cosas como el ping o el tickrate son infinitamente más importantes que unos frames de más o un monitor con 1ms.

Y todo esto sin contar los reflejos del propio cuerpo humano y la velocidad de procesamiento que se requiere (que supera…   » ver todo el comentario
Si es para juegos con un equipo bueno si que se nota un montón. De nada sirve tener un monitor de mas de 60Hz si la gráfica no da suficientes fps. También hay monitores de mas de 200Hz considerados gama gaming que son un timo por el sobre coste que le meten por el termino "gaming" y porque no hay grafica que tenga potencia para exprimir este monitor, a parte de una cosa muy importante para gaming que es el tiempo de respuesta que lo optimo es 1ms y si tiene tecnología de…   » ver todo el comentario
#45 ¿Dónde venden teles oled con 1ms?
Yo creo q se ve muchisimo mas claro con un gif q actualize a 30hz 60hz y 144hz simultaneamente.

En un juego vas a necesitar q este bien hecho y la gpu lo aguante (no vas a tener el PUBG a 144 ni de palo)...

O bueno, un juego 'viejo' como battlefield4, q esta bien hecho...

Pero se nota, vaya si se nota...

Y repito q ya no tengo 144hz.
Monitor 144hz para luego jugar a 60fps ( o alguna consola a 30fps )
#17 Pues si tiene algun tipo de tecnologia de refresco dinámico para evitar ver el dichoso tearing, bienvenidos sean esos 60fps.
Antes que aumentar los herzios del monitor que me parece una estupidez, aumenta las pulgadas y la resolución, siempre. Ahí si notarás diferencias abismales, por no hablar del contenido para adultos en 4k... xD
Muy interesante, yo tengo un monitor de 144Hz y tampoco noto nada especial, sera por que soy viejuno ya.
#32 Dos cosas para notarlo: el juego tiene que irte a 144 fps (a partir de 100 fps ya lo notas) y además, debes de quitar el v-sync o sincronía vertical del menú del juego.
#47 ¿Porqué quitar el v-sync?
#88 El v-sync sincroniza los fps a los que va el juego con los hertzios a los que va el monitor pero si por ejemplo tu pc no puede mandar 144 fps sostenidos al monitor, el v-sync te lo intentará sincronizar con el siguiente escalón (no sé si 75 o 60 hz) haciendo que bajen tus fps.
Por eso Nvidia y Amd sacaron hace unos años el v-sync adaptativo (en Nvidia es G-sync, en AMD es FreeSync) haciendo que la gráfica y el monitor funcionen con los mismos fps/herzios y así no notando el bajón de fps que ni el input lag que da la tecnología v-sync.
#32 www.testufo.com dime que con tu monitor de 144hz no notas diferencia en esa web (que según el explorador irá a 120hz, pero nos vale)
Y las resoluciones 4k en los teléfonos se notan o no?
#56 para eso sí, para el uso normal no se
Cualquiera que tenga un monitor de 144hz y uno de 60hz sabe que se nota una barbaridad, incluso en mover el ratón por Windows, hacer scroll or abrir el menú inicio...
Añado que a cuanto mayor fps el consumo eléctrico del PC es mayor así como mayor la generación de calor que habrá que disipar.
Si sincronizamos con el monitor a 144hz o más, hará que el sistema haga un sobreesfuerzo comparado con los 60hz habituales.

En mi caso uso el PC para simulación aérea, pienso que el menor tiempo de respuesta grey to grey y un buen puñado de hz/fps haría que pueda leer mejor los intrumentos de la cabina (ya que hay letreros y botones con textos realmente minúsculos), o…   » ver todo el comentario
Esrais enfermos. Pesados e ignorantes.
Mientras tanto, continuo aqui con el hdr y freesync 2.
Chao capullos.
«12
comentarios cerrados

menéame