edición general
153 meneos
2520 clics
NVIDIA RTX 30: ¿Cómo consigue la arquitectura Ampere duplicar el rendimiento de las RTX 20?

NVIDIA RTX 30: ¿Cómo consigue la arquitectura Ampere duplicar el rendimiento de las RTX 20?

¿Cómo ha hecho NVIDIA para duplicar el rendimiento de la pasada generación de golpe? La respuesta la encontramos precisamente en la implementación específica de la arquitectura Ampere en su gama GeForce RTX 30 con, entre otras novedades, la implementación de la segunda generación de RT Cores con soporte para concurrencia y la tercera generación de los Tensor Cores para funciones basadas en IA como AI. A lo largo de gran parte de esta editorial desgranaremos todos los secretos de la arquitectura Ampere en esta nueva gama de tarjetas gráficas.

| etiquetas: nvidia , rtx30 , rtx , ampere , tarjeta gráfica , análisis
#13 Supongo que sabes que el principal negocio de nvidia está en centros de datos donde hay Linux, no en jugadores de Fortnite.

Nvidia no tiene el cariño de usuarios de Linux y no es precisamente los usuarios de escritorio...

Mientras no haya nada mejor no hay problema, pero cuando lo haya...
#27 A ver, igual te has pasao... Actualmente entre los centros de datos y el gaming está ahí ahí la cosa (adjunto grafico). Igual en un par de años tu comentario se hace realidad, pero hoy por hoy Nvidia tiene dos principales mercados y son esos dos.

g.foolcdn.com/image/?url=https://g.foolcdn.com/editorial/images/575635
#52 No me funciona ese link
#38 Sobre papel no, usándolos todos los días. Sobre lo de la emulación de otras arquitecutras... WTF, no sabes ni de lo que estás hablando y lo sueltas así a pelo, toma ya... Lo curioso es que es un argumento que me dio hace un tiempo un tio de una tienda (que naturalmente sacaba más márgen vendiendo Intel), y aunque se lo demostramos in situ que era una trola, seguía en sus trece.

Por suerte, hoy es más difícil que engañéis a la gente.
#41 déjalo. Intel-boy detected.
Hay que estar poco informado para ir a por Intel y sus 14-12 Nm ahora mismo.
He renovado tras 11 años portátil. Un 4300u 4/4 que es un cañón, que no pasa de los 45 grados en uso normal y que ni enciende ventilador. A precio de i3 y rendimiento casi de i7 10a gen
#10 Nvidia, el driver privativo es un horror en rendimiento y se dedican a sabotear en lo posible los Open. De ahí el famoso comentario de Linus:

www.youtube.com/watch?v=iYWzMvlj2RQ

EDIT: meto en copia a #16 que me ha contestado tambíen.

Desde que me pasé a AMD, ninguno, no vuelvo a Nvidia.
#15 Yo las uso para Deep Learning y el rendimiento es idéntico a Windows.
#21 Desconozco como estará actualmente la cosa, llevo algunos años sin usarlas (salvo el portátil que no me queda otra y llevo una 2070):

www.phoronix.com/scan.php?page=article&item=rtx2080ti-windows10-ub

Según los test de Phoronix el rendimiento siempre es peor. Si me aseguras lo contrario me retracto; aún así me sorprende con sinceridad teniendo en cuenta que a Nvidia siempre le ha traído sin cuidado el soporte Linux de sus tarjetas gráficas. Han hecho lo mínimo y poco más históricamente.
#24 Es que habláis de cosas distintas. Las librerías de CUDA para Linux van de lujo, y es obvio que inviertan tiempo en eso, dado que la mayoría de los servidores de altas prestaciones van con ese SO. Otra cosa es la traslación a generación de gráficos. Ahí me imagino que a Nvidia le tira un poco del pié, ya que tiene poco mercado.
#24 Bueno, tampoco creas que los benchmarks son la verdad absoluta, entran en juego muchos factores y escenarios donde el rendimiento puede variar.

En este benchmark de 2018 ves como tanto Nvidia como AMD corren Bioshock 1080p/high más rápido en Windows, pero a 4K ambas lo ejecutan más rápido en Linux. En los siguientes tests en multiples ocasiones GTX 1080Ti rinde mejor en linux, y otras tantas las de AMD funcionan mejor en Windows (ejemplo: Dota 2/Vulkan).

www.phoronix.com/scan.php?page=article&item=win10-ubuntu-gpufresh&
#24 Pues yo he siempre he tirado de Nvidia para mis equipos Linux.

Pocos o ningún problema. Rendimiento bueno.
#81 quería enlazar a #74 realmente :-/
#10 #24 Olvídate de Wayland, Nvidia directamente no tiene soporte para Wayland y probablemente no lo tendrá nunca por la pelea de los EGLstreams/GBM, supongo que aún así puedes vivir con Xorg otros 10 años, pero cuando tengas monitores con diferentes DPIs y cosas así es cuando Xorg empieza a mostrar sus muchas flaquezas. Aparte, después de la pillada del "GPL Condom" creo que le van a capar a Nvidia símbolos del kernel que necesita (los van a limitar a drivers libres), por lo que es…   » ver todo el comentario
#81 Igual la gente que usa Nvidia en Linux no lo hace por los gráficos.

De hecho, a excepción de para jugar, no conozco a nadie que utilice Nvidia para gráficos.
#81 A ver, ¿que grafica tienes tu? entiendo que una AMD. ¿usas los drivers libres? ¿el rendimiento es parejo a Windows?

Mi experiencias con las antiguas ATI fueron horribles, por eso siempre he tirado con Nvidia:

- Los juegos en Steam para Linux me van bien. La parte de aceleración siempre me ha funcionado bien.
- Cuando he tenido que tirar de nv decoder y nv encoder, perfecto. Se puede hacer un trasconding en tiempo real de videos HD.
- Hice pruebas de minado con CUDA, perfecto tambien.
-…   » ver todo el comentario
#100 Yo solo te puedo dar información, no te puedo orientar sobre qué opción es la correcta, por lo que te voy a documentar un poco todo y tu ya elijes.

Yo tengo 2 ahora mismo, una RX 550 (que es la que uso para trabajar por el bajo consumo) y una RX 580 que es la que cambio para cuando quiero pasar una temporada jugando mucho o me voy de lan-party. Yo vengo de una 750ti de Nvidia y estaba hasta los guevos de ella, una experiencia de mierda en todos los sentidos. Las RX 5xx creo que son…   » ver todo el comentario
#15 Son tests de juegos, renderizado, etc. No puedo hablar del rendimiento en ese terreno.

Para entrenamiento de redes neuronales el rendimiento es el mismo. Puedes probarlo en Azure por dos duros para cerciorarte.
#30 Pues es posible que tengas razón pero al final en mi caso, cuyo uso sería el de un PC doméstico, sería precisamente en lo que me afectaría y donde los libres libres de AMD me parecen una maravilla en comparación.

El rendimiento que saqué de la 480 que tenía con drivers libres incluso no tenía rival de Nvidia; incluso en los días de minar ethereum.
#30 Ummm. Pero en la nube te asignan una tarjeta dedicada o simplemente X capacidad de computación?
#15 ¿Qué tal AMD recientemente? Yo desde que hace diez años o así me dejaron sin actualizaciones de drivers para mi gráfica a los 2 años de haberla comprado les mandé a tomar por culo. ¿Han mejorado en ese aspecto?
#54 No sé si mi caso te será de mucha utilidad: tengo AMD en Linux con los drivers Libres, tengo que decir que mejoran con cada actualización y eso de quedarte sin soporte diría que antes se te oxida la gráfica...

En cuanto a Windows (lo he usado para algún juego muy puntual, rendimiento más que aceptable), como crítica no me gustan las "suites" monstruosas de control que hacen ahora para las gráficas.

Si tu plan es windows + gaming quizá sea mejor Nvidia.
#54 #15 AMD en las X1200 lo pasaron a Gallium en MESA 10 o así y el rendimiento hasta MESA 18-20 ha sido una puta MIERDA hasta el punto de que el Flare (un clon de Diablo de software libre) iba mejor en renderizado software que usando el nuevo stack usando Gallium. Una RS 690, que en teoria deberia tirar decentemente el primer Max Payne a 1024x768 sin ralentizarse bajo Wine Nine (DX bajo Gallium). Eso en Slackware 14.2 con MESA 13.0.6 actualizado con Slackbuilds.

En MESA 20 en S…   » ver todo el comentario
#15 A mí me va falta Nvidia en linux pero yo he hecho algo diferente a ti, prefiero comprarme el hardware que necesito y si el SO no lo permite pues me pongo otro SO.

Saludos.
Veremos si es verdad ese aumento de rendimiento cuando publiquen las pruebas de rendimiento. También tengo ganas de ver qué es lo que saca AMD, no creo que iguale en potencia a NVIDIA, pero creo que sus gráficas seguirán teniendo una relación prestaciones / precio interesantes.

Además, ¿qué compra la gran mayoría de la gente?, ¿una gráfica de 700 € - 800 € o más en la gama de 300 €.
#1 Yo mientras no tenga drivers decentes en Linux ni con un palo, dupliquen o cuadripliquen el rendimiento de las anteriores.
#2 nvida o amd? A mí nvidia nunca me ha dado problema en linux. Aunque es verdad que las tarjetas que uso no son de lo último.
#10 Yo tengo rtx2070 súper y sin problemas en Linux
He estado viendo las nuevas RTX 3000 y el salto que han dado es, sin duda, el mayor de la historia en gráficas (y no sólo potencia, también en precio)
AMD tiene que estar temblando ahora mismo (espérate que no bajen las acciones y la compra Apple)  media
#89 Pues por aquí dicen que el resultado en Linux es igual o ligeramente mejor que en Windows:

www.michaelphi.com/first-impression-of-cuda-on-wsl2-for-deep-learning-
#96
El articulo no habla de resultados.
Habla de que los drivers son privativos.
Que el soporte no el para todo Linux sino para cierto gestor el resto nada.
Y habla sobre todo de estandares que en ingenieria es la base de todo.
Ademas lo que has enlazado no tiene nada que ver con la representacion grafica, estan usando la grafica para IA que ahi nvidia si da soporte porque sabe que el 99% de los servidores son Linux y ahi si sigue los estadares.
El problema es con el stack grafico en Linux y el gaming.
#2 seguro que los de NVidia están preocupados
Por culpa de un meneante linuxero
Que porque no hay drivers decentes
No quiere darles su dinero.
#2 ¿Qué problemas tienes con el driver propietario de NVIDIA en Linux? A mí me va perfecto...
#2 Para tu desgracia, el 90% de los que compran estos bichos usan Windows, así que tendrás que esperar sentado (o tumbado) a que pongan el soporte decente.
#2 Es que este tipo de tarjetas son para gente que quiera exprimir al máximo las caracteristicas gráficas de juegos triple AAA y para eso mejor WIndows. Gastarte 700-800 o hasta 1500 euros para usar Linux es un poco tonto, por mucho que vayan saliendo juegos compatibles, tampoco drivers y juegos están tan optimizados.
#46 Es que este tipo de tarjetas son para gente que quiera exprimir al máximo las caracteristicas gráficas de juegos

eh? dudo que la gente que se compre esa tarjeta para linux la vaya usar para jugar.

Y me jugaría un café a que la mayoría de esas tarjetas van a estar en servidores Linux.
#2 Joder, empezáis a parecer veganos ya.
#2 Yo hace tiempo que uso AMD por su compromiso con los controladores libres de Linux, aunque muchas veces me ha tentado comprar una NVIDIA de gama alta, ahí donde AMD llega por los pelos.
#1 La mayoría de la gente probablemente compra más bien en torno a la gama "baja", rollo 120-240. No creo que mucha gente compre gráficas de más de 300€ sin entrar ya en campos de "entendidos". Si no me falla la memoria, creo que en las encuetas de Steam aún creo que lamitad de gente que juega en PC o por ahí usaba portátil, y no creo que todos usen portátiles gaming o profesionales.
#3 las 3070 la van a vender como churros, no me cabe duda, las RTX 2080 ya estan bajando de precio en segunda mano aunque algunos aun no se bajan del burro.
Es un salto adelante muy importante, ahora se va a poder jugar a 4K a un precio mas razonable
#5 exacto, la 3070 es la que va a dominar el mercado doméstico-entusiasta. Es demasiada diferencia de rendimiento por algo más de dinero.
#3 Viendo las estadísticas de Steam, un 11 % usa una 1060, que es de gama media-alta, después bajamos al 8% con las 1050 Ti y 1050 con un 5%, las de gama alta representan un porcentaje muy bajo.

Así que si seguimos con el mismo tono, la reina sería la 3060 seguida de la 3050.
#3 La gente comprará lo que saquen, porque somos así, quitando a las personas que tengan otros gastos o no tengan dinero. Lo normal es tener un pc para jugar (eso es gaming, cutre o no) y poco a poco actualizarlo hasta que no de más, y luego a otro PC.


Un pc profesional (entiendo que te refieres a profesional del juego) está patrocinado, el resto son amateurs con aires de messi.

Y por último, lo de ser entendido o no va con cada uno, normalmente a la gente que le gusta jugar y tiene poco dinero suele leer artículos y ver comparativas para que su gasto de dinero se detine a la mejor calidad precio. Por eso entender o no es cosa de informarse bien.

Un saludo
#1 ni eso, yo tiro con una Ati R9 270 que me compré hace 6 años y sigue moviéndome todos los juegos que salen. Y me costó 170 euros. No pienso pagar nunca más de 200 por una gráfica.
#6 algunos a 12fps imagino
#32 pues la verdad es que no, y hace 3 años ya que tengo el dinero guardado para un equipo nuevo en cuanto éste me deje de mover juegos. Pero no ha ocurrido, pensaba yo que no me iba a mover el último de star wars, el Jedi Fallen Order, pero si que lo mueve bien. Graficos al mínimo claro. Tengo un i5 3570, 16gb de Ram a 1600, R9 270 y disco duro ssd. Tenía un i3 3240 pero el año pasado vi que el i5 3570 estaba por 30 euros y que las reviews de internet decían que seguía…   » ver todo el comentario
#55 no soy un pijotero de los gráficos pero prefiero que lo mueva decentemente y disfrutar un poco de fluidez sobretodo, shooters obviamente.
#6 No intentes ponerte el Flight Simulator
#1 también hay que pensar en proveedores cloud que compran gráficas de mil en mil.
#1 Es que AMD se va a ver obligada a bajar algún ciento a su tarjeta.

Nvidia le ha sacado muchísima ventaja en el punto fuerte de AMD, la calidad/precio. Si le quitas eso, se quedan en nada.
#1 Bueno, por los rendimientos que han publicado ellos, que habrá luego que comprobar, la 3070 le pasa muy de largo a la 2070, y el precio de salida es menor que le precio de la 2070 actual (o por lo menos el de hace unos días). La gama 70 dentro de la generación es de las primeras a considerar para los que buscan un poco más que una gráfica funcional.

Pero sí, habrá que ver la respuesta de AMD. No deja de ser un golpe en la mesa y el salto más grande de potencia entre generaciones hasta ahora, según lo que sabemos hasta ahora.
#1 La 3070 sale a 519€ en Europa. Si se confirma el rendimiento teórico de una 2080ti, dudo que haya nada mejor calidad/precio (salvo una 3060 igual de buena que una 2070 super a 300€ {0x1f62c} )
#1 No importa que esto sea el tope de gama y que hoy no esté al alcance de todos (arrancando por mi). Lo importante es que tarde o temprano, cuando esta tecnología deje de ser novedad y su costo se reduzca, va a tener un alcance bastante más masivo.
#1 DigitalFoundry ya ha hecho varios benchmarks con la 3080, aunque no han hecho tests con FPS sí han hecho rendimientos relativos y se ve que el aumento de rendimiento va del 65 al 100% dependiendo del título y la situación.
#1 La gente que cobra sueldos españoles comprará la de 150. Los que cobran sueldos europeos, la de 300. Y los americanos, la de 900.
#1 El precio da igual. La de 700 de un año es la de 300 del año siguiente con otro nombre.
#1 no se si has visto esta comparativa con el doom eternal

youtu.be/A7nYy7ZucxM
#44 sí lo ví, así por encima se gana aproximadamente un 50% más, pero quiero ver qué pasa con otros juegos.
#64 pues ahi esta para que los meneantes lo vean. Esperemos a los benchmarks xD
#1 Bueno, es que aún faltan la gama 3050 y 3060, que teniendo en cuenta el precio ya de la 3070 en 500Eur... a lo mejor una 3050 ya sale por 150Eur y una 3060 por 300Eur ( o menos )

y con estas comparativas de las gamas altas ( 3070, 3080 y 3090 ) una 3060 tendría que ser casi como las antiguas entre la 2070 y 2080 que no eran moco de pavo...
#1 hay una comparativa ya con el último doom con todo a tope y en 4K y le saca aprox un 50% mas de fps

youtu.be/A7nYy7ZucxM
Está claro que es uno de los saltos generacionales más grandes, el más grande según Nvidia. Lo que realmente es buena noticia para los usuarios es la "normalización" de precios, porque pasar de una 2080ti por 1200€ a una con el mismo rendimiento por 500€ (3070) es una buena noticia. Aunque siga siendo una pasta, lo de antes era un robo, directamente.

Yo personalmente esperaré a AMD ya que no me importa tener algo menos de rendimiento (suponiendo que no llegue al nivel de la 3080, que igual sí) por algo menos de precio. Además prefiero apoyar a una compañía en crecimiento para que le haga la competencia al cuasi monopolio que tenían Intel y Nvidia. De momento es prometedor, pero está todo por ver.
#4 La que de verdad se va a poner interesante será la hipotética 3060, que rondará los 300 y tendrá una potencia presumible 2070.
#4 Hmm... bueno, sí, obviamente ofrecen más rendimiento que la anterior generación, pero la normalización de precios que plantean no me termina de convencer. El mensaje es claro: no volveremos a ver una serie 7 por 400€, ni una serie 6 por 200 - 300€

Aunque supongo que ya llevamos un tiempo así.
#4 Y yo esperando a ver como se pone la 2080 ti
#4 Pero la gente tiene la impresión de que la 3070 ha dado un salto enorme Pero no, el salto ha sido de un 30% o así, la 2070 a la 2080ti no había más distancia que esa (según userbenchmark por ejemplo) lo que había es mucha diferencia en precio y por eso es tan llamativo que lo que antes costaba 1200€ ahora cueste 520.
Pero para ponerlo en perspectiva si mejoran la 1650 en la misma proporción no llegaría a rendir ni como la 1650super, a que ya no parece tanto salto?
#75 El salto generacional del que yo hablo es de la tarjeta más potente anterior a la nueva, y según benchmarks es hasta un 80%, lo cual es casi el doble. Es un gran salto se mire como se mire.
#82 Si, es una buena mejora, pero la gente tabien repite mucho lo de una 2080ti por 500€ cuando eso no es para tanto como lo de la 3080.
Para el común de los mortales que no se deja un sueldo en una gráfica no creo que el salto sea para tanto.
#43 Yo siempre he tenido Intel en todos los PCs, básicamente porque, al menos por aquel entonces eran mejores (salvo un Pentium 4 que tuve, que ahí AMD si que tenía competencia buena)... luego Intel siguió dominando hasta ahora, pero es que ahora la cosa es al revés. Lo que no tiene sentido es comprar lo peor simplemente por "marquitis"...

Si la proxima generación intel es mejor, pos intel, pero ahora mismo, AMD les ha dado por todos lados en CPU.n Y en gráficas antes tenía AMD y ahora tengo NVIDIA...

Es que encima que hay pocas opciones en el mercado, como para limitarse solo a una...
#45 Lo de AMD en mi caso era por precio, he tenido gráficas ATI, antes de que fuese de AMD, y la verdad es que me fue bien, pero después bueno, NV siempre me da mas compatibilidad con Unreal engine.
Para mi está claro. Han visto lo que le está pasando a Intel con los nuevos procesadores AMD. Este año salen las dos consolas con unos más que decentes gráficos (ambas de AMD también). Además Intel va a sacar por primera vez un procesador gráfico y Apple con sus socket para PC va a por sus gráficas propias. Nvidia ha dicho, o tiramos la casa por la ventana o seremos una más de las grandes que no han sabido evolucionar. Y se ve que han ido por todas porque han tenido que hacer una refrigeración tan exagerada que ocupa tres ranuras slots.
#38 libretro, xenia y pcsx2,pcsx3 y dolphin a 1080p con resoluciones internas mayores a 1080p. 60 fps con shaders y mejoras. Sin caidas.

Ryzen 5 3600 a 4.150 ghz mas una nvidia 1660 super.
Hay truco. Recordemos que de las 10XX a las 20XX hubo una mejora muy pequeña. La 1080ti está a la par de la 2080ti.
#23 la 1080ti estaba a la par que la 2080, la 2080ti no tenía competencia en Pascal. Pero si, las 3000 el salto es mucho mayor y, curiosamente, en europa no se han subido tanto a la parra con los precios como con las 2000.
#25 900 a 1000: potencia ( Más cores )
1000 a 2000: tecnología ( RTX )
2000 a 3000: potencia ( Más cores )
#61 3000 a 4000: skynet
Seguro q tenian esta tecnología antes de sacas la serie 20, quizá con la 10, pero van poco a poco
Lo de "funciones basadas en IA como AI" me ha matado.
719 € por 8700 cuda cores? o_o

Y tercera generación de los Tensor Cores!
89 a 238 FP16 TFLOPS!

:take:

Ahora ya tengo aliciente para cambiarme de una vez el PC. :-D
3090 ven a mí! 24 Gigas de VRAM ahora mismo tienes que gastarte bastante más del doble para algo así! (es para temas de redes neuronales no para jugar)
Sea cual sea la elección que hagáis, recordad que ha sido AMD la que ha provocado la revolución.
Ya han tardado poco, un clásico subtitulado con el temilla de las nuevas RTX xD www.youtube.com/watch?v=pKneUFwVkXI
Fácil, reduciendo los manómetros y duplicando el número de cores. Por eso consume un 50% más.
La mejora y optimización del hardware sólo conseguirá un diez o quince por ciento de mejora.
Se referirá al uso de instrucciones AVX/SMT hombre, de las que RPCS3 explota mejor que AMD.

Eso le da bastante ventaja a la hora de emular la Play3, amen de un mejor IPC.
Qué hay externo para laptops? Mac Pro en concreto, que valga para mi set up de 3 monitores y que no llegue a los 300 euros. :-)
Veo una ventaja aplastante para nvidia. El problema es que si no hay competencia, esta empresa impondrá los precios y van a ser altos.
Cyberdyne Systems no era Intel, es Nvidia.
La venta de segunda mano está echando humo con esto, tarjetas gráficas de más de 1000€ que ahora son superadas por una de 520 y aún falta AMD con sus RDNA2 por anunciar.

Me parece muy interesante este cambio generacional, tanto en consolas como en gráficas, mucha gente estaba esperando Series X como un todo en uno, antes de ponerse a gastar más dinero en actualizar su PC, ahora, los que aún tienen una CPU que puede aguantar, pueden actualizar a estas Nvidia 3000 y darle un buen empujón al…   » ver todo el comentario
#31 yo vendería ahora antes de que sea demasiado tarde
#31 No no puedes porque hay una relación de equilibrio entre la CPU y la GPU. Si te pones una bestia de GPU con una CPU que no sea muy potente te funcionará a saltos con según que aplicaciones.
Si quereis hacer streaming comprad nvidia, sus codecs estan genial. Amd en wl papel esta genial pero a la hora de la verdad es una peor opcion, hoy en dia, a intel (cpu) y graficas. Y no me vengais com la teoria de ofrecen mejor relacion potencia precio, porq es real, si, en la teoria, pero a nada q trabajes con programas reales y con videojuegos te das cuenta q intel y nvidia ofrecen mejor relacion calida precio. Monto decenas de ordenadores al año, pongo lo q me piden y llevamos unos años q a…   » ver todo el comentario
#29 Trabajo con ambos procesadores, intel 10 gen y amd zen2, y zen 2 tiene mayor ipc, menor consumo y mayor rendimiento...

Nadie con dos dedos de frente, salvo fanboys, iría ahora mismo a por un intel en sobremesa, y en portátiles la diferencia es aún más sangrante.

En gráficas si, NVIDIA tiene mejor rendimiento en gama alta, aunque la chapuza que hicieron con los drivers de las RTX 20 es un escándalo.
#35 mayor rendimiento sobre el papel. Por no hablar de que emulando son la peste, los intel estan muchos mas optimizados para emular otras arquitecturas, literalmente hay arquitecturas q los amd no emulas porq no disponen de instrucciones q los intel si
#35 Al 100% contigo.
Yo hago videojuegos, monto procesador AMD, y con lo que me ahorro meto o mejor ram o mejor gráfica de Nvidia.
#35 Yo me pillé un 9700k hace un año. En su momento el procesador amd equivalente era solo ligeramente más barato, y estaba por debajo en prestaciones.

La soberbia sobra.
#29 mmmmm como me gustan esos negativos del q se han comprado una amd en teoria mas potente y q luego tira peor q una 2060 mm, venid si, venid, q yo seguire jugando a doom eternal mas fluido q vosotros
#37 es demasiado echar un negativo por ser fanboy. Imagino que habrá sido por defender Intel frente a ryzen. Que eso no se sostiene con ningún argumento.
Cada uno es libre de comprar lo que quiere en todo caso.
intel tienes sets de instrucciones (mmx) que amd no y que le permite emular ciertas arquitecturas q amd no, p. e. Sega saturn, que los emuladores de android vayan mucho mejor en intel q en amd, q si mucho van genial en los dos, pero q hay arquitecturas q amd o emula peor o direcatmente no emula, punto pelota, emula arm en intel y en amd y me dices en cual rinde mejor y luego arquitecturas raras q no van en amd
#51 No sabes de lo que hablas

AMD Ryzen 7 2700 Eight-Core Processor, instrucciones soportadas según "cat /proc/cpuinfo":
fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc rep_good nopl nonstop_tsc cpuid extd_apicid aperfmperf pni pclmulqdq monitor ssse3 fma cx16 sse4_1 sse4_2 movbe popcnt aes xsave avx f16c rdrand lahf_lm cmp_legacy svm extapic cr8_legacy abm sse4a…   » ver todo el comentario
#51 Tio, las MMX es de cuando el Pentium y cualquier K7 las tenia.
«12
comentarios cerrados

menéame