Partage
  • Partager sur Facebook
  • Partager sur Twitter

[UPGRADE] CM + RAM + CPU + GPU

budget à determiner

    8 mars 2019 à 12:22:31


    Bonjour :)
    • type de demande : je souhaite upgrade mon PC et je cherche à savoir s'il vaut mieux remplacer seulement la CG ou la quasi totalité des composant. Le prix max que je mettrai dans la CG serait de ~400€ pour jouer sur du 4K
    • réseau/Internet : fibre
    • OS : windows 10 64bits
    • utilisation : retouche photo amateur (lightroom uniquement pour l'instant), jeux vidéo (the division 2, AC Odyssey, Anno 1800, the witcher 3, destiny 2, starcraft 2)
    • overclocking : si ca vaut le coup
    • pays : france
    • budget : à déterminer. Max 415€ pour la CG
    • config' possédée et commentaires : Je cherche une config très silencieuse. Je joue en QHD sur les jeux multi (the div, destiny) ou les jeux claviers souris (anno, starcraft) devant mon PC. Je joue en 4K avec un Pad sur les jeux solo (AC, the witcher) devant ma TV. Je ne cherche pas à faire du 60fps constant 4k. Je me limiterai donc à la 2060 max en terme de prix.

    Du coup j'hésite entre être "equilibré" en 4K et GPU bottleneck en QHD (donc acheter une 2060 et garder le reste de ma config, puisque mon CPU n'est pas bottleneck à 30/40fps sur les jeux cités), ou GPU bottleneck en 4K et équilibré en QHD (donc remplacer la plus part des composants). Je partais sur la première solution mais j'aimerais déterminer combien me couterait le remplacement de la CM + RAM + CPU.

    Ma config actuelle:

    ComposantDésignation
    Processeur i5 2500K@4.5Ghz
    Ventirad CPU noctua NH U12P SE2
    Carte mère Asus P8P67 (Rev. B3)
    Mémoire G.SKILL 2x4Go RipJawsX - DDR3-SDRAM - PC3-12.800 - CAS 8
    Carte graphique MSI 970 G1 Gaming
    Disque dur 1 (OS, softs et jeux) Samsung EVO 850 500Go
    Disque dur 2 Western Digital Caviar Blue, 1 To
    Graveur Blu-ray/CD/DVD LG CH10LS20
    Alimentation Cooler Master V850 80PLUS Gold
    Boîtier NZXT Phantom White USB 3.0
    OS Windows 10 64bits
    Écran Dell U2713HM
    TV Panasonic TX-65EZ950
    Autre j'ai remplacé les ventilateurs du boitier par des silentwings et shadow wing

    Et la question subsidiaire: y'a t-il une différence de bruit entre une MSI GeForce RTX 2060 GAMING 6G et une MSI GeForce RTX 2060 GAMING Z 6G ?

    Est ce exactement le même système de refroidissement et donc le même bruit? (voir moins élevé pour la version non Z puisqu'elle est moins OC donc moins chaude? 

    Merci :)

    -
    Edité par fred1988 8 mars 2019 à 12:26:20

    • Partager sur Facebook
    • Partager sur Twitter
      Staff 8 mars 2019 à 15:24:46

      Salut ;)

      Il faudrait nous donner des précisions sur l'OS (BOX/Retail, OEM ou DreamSparks/MSDNAA ?) et l'utilisation (pour les jeux, également Anthem, APEX Legends, ARK: Survival Evolved, ArmA III, Civilization VI, Deus Ex: Mankind Divided, Dirt Rally 2.0, Dishonored 2, Dragon Age: Inquisition, Dying Light, ELEX, Fallout 4, FarCry New Dawn, Final Fantasy XV, Ghost Recon Wildlands, Grand Theft Auto V, Hitman 2, Homefront: the Revolution, Jurassic World Evolution, Just Cause 4, Kingdom Come: Deliverance, Mafia III, Mass Effect: Andromeda, Metro Exodus, Middle-Earth: Shadow of War, Monster Hunter: World, NieR: Automata, No Man's Sky, PLAYERUNKNOWN'S BATTLEGROUNDS, Project CARS, Quantum Break, Rainbow Six Siege, Ryse: Son of Rome, Sea of Thieves, Shadow of the Tomb Raider, State of Decay 2, Total War Saga: thrones of Britannia, Warhammer: Vermintide 2, Watch Dogs 2, WildStar, etc. ? Besoin de pouvoir te connecter en WiFi ?) pour te répondre au mieux.

      En attendant, changer uniquement de carte graphique ne serait vraiment pas une bonne chose car elle serait bien trop bridée par ton CPU actuel qui est trop faible aujourd'hui… surtout pour jouer en Quad HD (2.560x1.440) ou, pire, en Ultra HD (3.840x2.160) car il bride déjà ta nVIDIA GeFORCE GTX 970.

      Du coup, en plus de la carte graphique, il faudrait également changer au moins les CPU voir peut-être aussi le ventirad CPU (pas sûr qu'il existe un kit pour le rendre compatible avec les CPU récents), carte mère et RAM… ce qui demanderait de revoir le budget pas mal à la hausse car jouer en Ultra HD (3.840x2.160) demande énormément.

      D'ailleurs, il me semblerait pas mal d'en profiter pour remplacer ton écran actuel par un nouveau en Ultra HD (3.840x2.160) comme, par exemple, le SAMSUNG U32H850 afin que tout soit bien "équilibré" vue que ta TV (très bien) est déjà un modèle en Ultra HD (3.840x2.160).

      • Partager sur Facebook
      • Partager sur Twitter
        8 mars 2019 à 16:08:20

        Salut CyberS@m :) (quasiment 10 ans maintenant que l'on se parle sur ce site ^^)

        De souvenir l'OS est en version BOX ou OEM. On me l'a offert avec une clé windows officielle, je sias pas si ca peut t'aider.

        Les jeux, ce sont uniquement ceux que j'ai cité.

        Pas besoin de connexion wifi.

        Concernant le changement de carte je suis surpris par ta réponse. Théoriquement, le seul changement de résolution ne devrait avoir aucun impact ou vraiment très peu, sur l'utilisation CPU (dixit un ami developpeur 3D dans le jeu. Ne pas faire confiance aux configs recommandées, c'est n'importe quoi). Et c'est la raison pour laquelle je pense ne changer que la carte pour l'instant: étant donné qu'elle ne tourne qu'à 40fps en 4k(sur une config de test donc on va dire 30/35fps en vrai). hors mon cpu @4.5GHz n'a aucun problème pour faire tourner les jeux récent à 40fps voir plus (j'ai tenté sur ACO). Du coup, toujours théoriquement, le changement de carte devrait me laisser une config assez équilibrée (légèrement CPU bottleneck) pour du jeu 4K/30fps. Au contraire, je devrais etre plus bottleneck sur mon écran QHD, puisque la carte me permettrait de jouer à +60fps, mais le CPU suivrait pas, et encore pire en fullHD.

        Je ne souhaite pas remplacer mon écran, déjà parce que niveau colorimétrie il est très bien pour la retouche, et ensuite car je n'aime pas travailler avec un pitch trop petit car oui même si windows propose un redimensionnement, il ne marche pas toujours bien en fonction des logiciels ;-) )

        Sinon concernant le remplacement de toute la config, si je venais à le faire, je proposerait quelque chose dans ce gout:

        Sur LGA 1151: (je lis sur la fiche technique que le noctua est compatible LGA 1151)

        Core i7 8700 + Corsair Vengeance LPX 16Go (2x8Go) DDR4 3000MHz C15 + MSI Z370-A PRO + MSI GeForce RTX 2060 GAMING 6G

        Total: ~965€

        Sur AM4:

        RYZEN7 2700X + be Quiet! Pure Rock + Corsair Vengeance LPX 16Go (2x8Go) DDR4 3000MHz C15 + ASRock B450-Pro 4 + MSI GeForce RTX 2060 GAMING 6G

        Total: ~995€

        Sinon concernant ma question sur les deux modeles 2060 de MSI t'as une idée?

        Et nouvelle question: je déménage au canada dans quelques mois. Les prix sont ils plus avantageux là bas?

        EDIT: ce topic semble dire qu'une 1080 n'est pas bottleneck par un 2500K@4.6 en 4K

        -
        Edité par fred1988 8 mars 2019 à 16:35:21

        • Partager sur Facebook
        • Partager sur Twitter
          Staff 8 mars 2019 à 16:50:18

          OK… mais il serait pas mal d'en savoir plus à propos de ton OS car, si c'est une version OEM (ce qui est fort possible), il ne serait pas légal de le réutiliser en cas d'upgrade importante ou de changement de PC.

          Sinon, pour ce qui est du bridage de la carte graphique (en effet, les config' recommandées par les éditeurs de jeux sont rarement fiables… quoique ça a un peu évolué dans le bon sens ces derniers temps), c'est pas tout à fait comme ça que ça marche et, pour faire très simple, en gros, il est conseillé d'avoir un CPU et un GPU se situant plus ou moins dans la même gamme : aucun problème avec un CPU de plus haute gamme (ça peut être utile dans certains cas) mais mieux vaut éviter de prendre un CPU de gamme plus basse car, là, ça briderait le GPU… c'est le cas avec ton CPU actuel qui, même en étant très fortement overclocké, n'est plus suffisant (la fréquence est 2ndaire et c'est nettement plus son architecture qui importe). De plus, aujourd'hui, mieux vaut essayer de rester sur du ~60fps de moyenne car 40fps est vraiment la limite basse à ne pas dépasser si on veut quelque chose de fluide… la mode est même aux 120/144fps voir plus (ça apporte un vrai plus dans les jeux et pas que).

          Du coup, aujourd'hui, si tu veux pouvoir jouer en Quad HD (2.560x1.440) @60Hz, si une nVIDIA GeFORCE RTX 2060 (ce sont 2 modèles silencieux mais le plus silencieux devrait être le "Gaming Z". Après, on peut trouver plus ou moins aussi silencieux pour moins cher chez d'autres marques) devrait pouvoir suffire, le meilleur choix serait une nVIDIA GeFORCE RTX 2070 car elle permettrait d'être tranquille… avec, respectivement, comme CPU, un AMD Ryzen 2700X (vue que tu fais aussi du graphisme) et un INTEL Core i5 9600K.

          Quant à jouer en Ultra HD (3.840x2.160) @60Hz, là, il faudrait passer à la gamme au-dessus avec une nVIDIA GeFORCE RTX 2080 et même une nVIDIA GeFORCE RTX 2080 Ti pour être tranquille… avec, là-aussi, un INTEL Core i7 9700K (l'INTEL Core i7 8700K est aujourd'hui dépassé) et un INTEL Core i9 9900K.

          Avec, comme ventirad CPU, vue que tu cherches quelque chose de très silencieux, un THERMALRIGHT ARO-M14G/O (AMD) ou HR-02 Macho Rev.B (INTEL).

          Et, pour ce qui est de la carte mère (rien à dire concernant le choix de la RAM), avec un CPU d'AMD sur socket AM4, le minimum serait l'ASRock B450 Pro4 et, le meilleur choix, une AORUS X470 Ultra Gaming (en Anglais). Et, avec un CPU d'INTEL sur socket LGA1151, le minimum serait une MSI B360-A Pro et, le meilleur choix (même sans avoir besoin de pouvoir se connecter en WiFi), une AORUS H370 Gaming 3 WIFI voir, pour être tranquille, une MSI MPG Z390 Gaming Edge AC (en Anglais).

          Enfin, pour ce qui est des prix du hardware au Canada, c'est très variable car, si certains sont plus bas, d'autres sont parfois plus élevés… mais c'est surtout le choix qui n'est pas le même (par exemple, il est très difficile de trouver certaines alim' de - de 500W ainsi que les écrans d'IIYAMA).

          • Partager sur Facebook
          • Partager sur Twitter
            8 mars 2019 à 17:27:20

            ok je vais réfléchir parce qu'on parle quand même d'un investissement à 4 chiffres là, ce qui n'était pas prévu pour tout de suite, d'autant que je ne joue pas tant que ca. En revanche j'entends totalement l'argument de la photo.

            Je suis tombé en revanche sur ces 2 vidéos qui montrent qu'on est effectivement CPU bound avec un 2500k@4.3Ghz, mais pas autant que je l'imaginais (équilibré sur the div qui tourne à quasi 100FPS, 70-80% sur FarCry5 avec 60-70FPS alors que l'on est sur du FullHD, donc que je n'atteindrai jamais dans la situation décrite) alors que cette video semble montrer que le i5 8600k@4.8GHz est surdimmensionné pour de la 4K (50% d'utilisation seulement en moyenne). Du coup j'aurais vraiment tendance à penser que la config serait équilibrée en 4K.

            Tu as des articles qui donnent des précisions sur les problèmes d'archi dont tu parles?

            Sinon concernant les cartes, tu penses à quelles autres modèles pour le silence? tu as trouvé des comparatifs parce que je galère? Et du coup la gaming z serait plus silencieuse que la gaming? j'ai cherché des test du modèle non Z et je n'ai rien trouvé. Aurais tu un lien à me partager?

            Merci :)

            Merci pour ces réponses

            • Partager sur Facebook
            • Partager sur Twitter
              Staff 8 mars 2019 à 18:10:51

              Hum… par rapport aux 2 vidéos que tu as mises en lien, je pense qu'on s'est mal compris ou que je me suis mal exprimé mais, si il est tout à fait possible de jouer avec un INTEL Core i5 2500 associée à une nVIDIA GeFORCE RTX 2060 (surdimensionnée pour jouer "seulement" en Full HD (1.920x1.080) @60Hz sans le RayTracing en temps réel), cette dernière n'est pas pleinement exploitée (avec un CPU plus récent/plus performant, il y aurait moyen d'y avoir (bien) mieux en terme de fps) et, à mon avis, vue le prix de ce type de carte graphique, ça me semblerait assez dommage.

              Sinon, par rapport au silence, tu peux regarder du côté de celles d'eVGA qui sont généralement moins chères ou d'ASUS (plus ou moins aux mêmes prix que celles d'MSI) voir de KFA2 (pas forcément aussi silencieuses en charge mais pas bruyantes non plus tout en étant généralement bien moins chères).

              PS : il y a quelques dossiers à ce sujet sur le Comptoir du Hardware dont un à propos de l'INTEL Core i5 2500K comparé à d'autres CPU plus récents (pour te donner une idée, en jeu, il doit plus ou moins être aussi performant qu'un INTEL Pentium G5600 qui est le minimum actuel dans ce domaine) mais impossible de remettre la main dessus :honte:.

              • Partager sur Facebook
              • Partager sur Twitter
                8 mars 2019 à 21:26:24

                c'est pas tout a fait ce que je voulais dire. En fait je me basais sur les videos full HD pour dire que le CPU était légèrement sous dimensionné car la carte est utilisée à ~80%, et sur les videos 4K pour dire qu'un CPU plus puissant est largement sous exploité (50%). Donc en théorie je devrais être sur un truc pas trop mal (100% CPU/100%GPU) en 4K avec le 2500K (et alterner entre CPU et GPU bound en fonction des situations).

                En plus, il est certain que je serai jamais à 60FPS en 4K avec une 2060 quelque soit le CPU. Hors on voit qu'un 2500K peut atteindre les 100FPS sur un jeu récent (The Division) avant d’être bottleneck, (et ce, en principe, indépendament de la résolution) donc je devrais être large (selon ce résonnement).

                Je vais étudier les liens et la question ce weekend, merci pour ton aide :)

                • Partager sur Facebook
                • Partager sur Twitter
                  Staff 9 mars 2019 à 3:08:39

                  Hum… the Division ne me semble pas être le meilleur exemple car il commence à dater un p'tit peu… le n°2 ne va sortir dans quelques jours et il devrait être plus gourmand et plus représentatif des jeux actuels/à venir.

                  De plus, si une nVIDIA GeFORCE RTX 2060 (associée à un CPU bien plus récent/performant) permet de jouer à certains jeux actuels en Ultra HD (3.840x2.160), c'est souvent à une 40aine de fps maximum… dans les plus récents/gourmands, elle est trop faible. Par conséquent, le minimum pour jouer dans cette définition serait, à mon avis, la nVIDIA GeFORCE RTX 2070.

                  Et, dans tous les cas, avec un CPU actuel suffisamment performant pour pleinement en profiter : le meilleur choix serait l'INTEL Core i5 9600K... ce que confirme ce dossier qui est assez proche de celui que j'avais vu sur le Comptoir du Hardware (comme il date un peu, c'est donc encore plus vrai aujourd'hui… en particulier depuis la sortie des AMD Ryzen qui ont un peu modifier les choses).

                  • Partager sur Facebook
                  • Partager sur Twitter
                    9 mars 2019 à 14:59:26

                    contrairement à ce que tu indiques, le dossier présenté semble confirmer ce que je pense: le cpu permet d'atteindre une fréquence de rafraîchissement x, le gpu une frequence y, si x >>y alors on est cpu bound, si y>>x on est gpu bound.

                    Dans les jeux présentés qui sont cpu bound (ashes, hitman et deus ex), on est respectivement à 57, 80 et 72fps @4GHz. La courbe de progression etant linéaire, on atteint théoriquement 64, 90 et 81fps @4.5GHz. Hors une 2060 permet d'atteindre respectivement en 4K: 41, 53 et 27fps et en WQHD respectivement: 50, 96, 51

                    Concernant the division et the witcher, le test permet de savoir qu'on est au moins très au dessus de 63 et 56 fps puisque GPU bound à 3,3GHz. Et les tests indiquent en 4K pour une 2060 respectivement: ?? et 39 fps et en WQHD: 48 et 67fps

                    Donc en conlusion en WQHD à 4,5GHz on serait CPU bound sur hitman de pas grand chose (6,7%). On est GPU bound sur tous les autres jeux. En 4K on est GPU bound sur tous les jeux.

                    en tout cas c'est interessnt comme étude :)

                    -
                    Edité par fred1988 10 mars 2019 à 0:00:49

                    • Partager sur Facebook
                    • Partager sur Twitter
                      Staff 11 mars 2019 à 21:24:59

                      Heu… ta conclusion va tout de même plus ou moins dans le sens de mes dires : même si ça serait (bien) mieux avec un CPU plus récent, globalement, la nVIDIA GeFORCE RTX 2060 est un peu juste pour le Quad HD (2.560x1.440) et bien trop pour l'Ultra HD (3.840x2.160)… il faudrait passer à des GPU de gammes supérieures pour profiter au moins correctement des jeux actuels dans ces définitions.

                      Du coup, à toi de voir si tu tiens à conserver encore ton CPU actuel qui est aujourd'hui dépassé et qui, même overclocké, briderait la nouvelle carte graphique (comme déjà dit, ça me semblerait être une solution bancale) ou si tu changes une bonne partie de ton PC (en économisant peut-être un peu) afin d'avoir quelque chose qui soit à jour, bien équilibré (je me répète mais je trouve vraiment dommage de mettre autant dans une carte graphique si c'est pour ne pas en profiter au mieux) et, surtout, adapté au mieux à tes besoins… en sachant que jouer en Ultra HD (3.840x2.160) demande un budget très élevé.

                      • Partager sur Facebook
                      • Partager sur Twitter
                        12 mars 2019 à 22:20:33

                        Soit il y'a un truc que je comprends pas, soit c'est toi qui n'a pas compris mes conclusions.

                        Je ne suis pas en train de chercher si une 2060 est suffisante pour faire tourner des jeux en 60FPS ultra. Je cherche à savoir si mon CPU est bottleneck ou non. Concernant la fluidité, chacun sa sensibilité et personnellement je ne remarque que très peu la différence entre 30 et 60FPS.

                        Ma conclusion concernait le bottleneck: mon processeur est suffisant pour ne pas être CPU bottleneck avec une RTX 2060 dans 100% des cas présentés, en 4K comme en WQHD (la fréquence de rafraîchissement de mon écran est de 60Hz, donc inutile d'atteindre 96FPS).

                        Acheter un nouveau CPU dans mon cas, n'augmenterait en aucun cas les FPS en jeu (puisqu'un 2500K@4.5GHz n'est jamais bottleneck sur ces résolutions avec une 2060). Il ne ferait qu’accroître l'inégalité entre une 2060 (bien trop faible) et un CPU beaucoup trop puissant pour du jeu (puisqu'utilisé à 50% de ses capacités seulement voir moins).

                        Du coup ce que je trouverais dommage, ce serait de dépenser autant d'argent dans un CPU + RAM + Fan + CM pour un gain de 0FPS, et de dépenser encore plus d'argent en comptant une 2080Ti pour un confort que je ne percevrais même pas.

                        Si j'ai pas compris un truc n'hésite pas à me reprendre.

                        Et je te rappelle qu'il y'a encore quelques année, le meilleur mono GPU ne suffisait même pas a faire tourner certains jeux en very high 1080p@30 FPS. Pourtant on ne conseillait pas de s'acheter des CFX et SLI pour autant ;-)

                        https://www.hardware.fr/articles/813-21/metro-2033.html

                        -
                        Edité par fred1988 12 mars 2019 à 22:37:22

                        • Partager sur Facebook
                        • Partager sur Twitter
                          Staff 12 mars 2019 à 22:57:32

                          Hum… on s'est bien compris mais c'est nos conclusion qui diffèrent : pour moi, vue qu'il serait possible d'avoir encore plus de fps avec un CPU plus récent/plus performant, même en l'overclockant, ton CPU actuel briderait bien la nVIDIA GeFORCE RTX 2060.

                          Après, en effet, même en étant bridée, il serait tout de même possible de jouer à pas mal de jeu en Quad HD (2.560x1.440), ce n'est pas le cas de tous et ça le sera encore moins avec ceux à venir… là, je ne suis pas d'accords avec toi car la plupart des comparatifs/tests montrent bien qu'on pourrait avoir encore mieux avec un CPU plus récent/plus performant (perso, je ne fais pas trop confiance aux tests sur YouTube qui ne sont pas toujours très fiables).

                          Donc, pour moi, prendre une carte graphique aussi chère et ne pas pouvoir pleinement en profiter n'est pas vraiment intéressant et c'est pour cette raison qu'il me semblerait préférable d'en profiter pour changer de CPU (et donc de ventirad CPU, carte mère et RAM)… il n'y a pas que sa fréquence à prendre en compte (surtout que, aujourd'hui, elle ne sert qu'à se repérer dans la même gamme d'une même marque de CPU) mais également le nombre de cores (pas encore très important en jeu mais, aujourd'hui, un HexaCore est tout de même préférable pour ce type d'utilisation… les QuadCores étant le minimum), les technologies supportées et, surtout, l'architecture (c'est l'élément le plus important aujourd'hui… cf. la conclusion du dossier en lien dans mon avant dernier post).

                          Du coup, si tu veux pouvoir, à terme, jouer en Ultra HD (3.840x2.160), mieux vaudrait partir sur une carte graphique encore plus performante avec un CPU et tout ce qu'il faut pour que tu puisses en profiter au mieux (jouer @30fps n'est vraiment pas conseillé car tu aurais des baisses de fps qui feraient "saccader" le jeu. Du 60fps de moyenne permettrait d'avoir un jeu fluide en toute circonstance et, si le budget le permet, jouer @120Hz/144Hz qui équivalent à 120fps/144fps, améliorerait encore plus les choses… il est difficile de revenir en arrière après y avoir goûter).

                          PS : mon but n'est absolument pas de dépenser de la thune pour rien mais, même si ton CPU est encore bien, il a fait son temps et est aujourd'hui dépassé et le changer en même temps que la carte graphique, surtout si ça permet d'en profiter au mieux, ne serait pas du luxe.

                          [Edit] : comme dit ci-avant, les temps changes et, aujourd'hui, la "norme" est de jouer @60Hz minimum en mono-GPU (le CrossFire/SLI, c'est fini ou presque)… ce n'est pas que du marketing, on ressent réellement la différence (c'est un peu comme passer d'un HDD à un SSD). De plus, le Full HD (1.920x1.080) est devenu le minimum car la "norme" serait plus au Quad HD (2.560x1.440) mais ce ne devrait être qu'une rapide transition avant de pouvoir pleinement passer à l'Ultra HD (3.840x2.160) qui demande beaucoup plus et est plus ou moins dans la même situation que celle dont tu parles avec le jeu en Full HD (1.920x1.080) @30fps... en passant à du 60fps minimum.

                          -
                          Edité par CyberS@m 12 mars 2019 à 23:05:22

                          • Partager sur Facebook
                          • Partager sur Twitter
                            13 mars 2019 à 1:20:46

                            "pour moi, vue qu'il serait possible d'avoir encore plus de fps avec un CPU plus récent/plus performant, même en l'overclockant, ton CPU actuel briderait bien la nVIDIA GeFORCE RTX 2060."

                            je ne dis pas que j'ai forcement raison. Seul un affichage des pourcentages d'utilisation CPU et GPU en jeu pourrait l'affirmer. Peut être qu'il y'a des élements que je n'ai pas pris en compte. Mais je pense que ma démonstration qui se base sur les résultats du dossier que tu as mis en lien est au moins mathématiquement correctes. Si elle est valide (donc si les simplifications mathématiques effectuées suffisent à modéliser correctement la situation), alors mon CPU ne bride pas une 2060 en wqhd et encore moins en 4k (au moins concernant les 5 jeux testés).

                            Concernant la "norme actuelle", le parc vidéoludique français (voir occidentale exception faite de la russie) est essencielement composé de console de salon (ps4 et x1) qui font tourner les jeux en 1080p@30fps (parfois même moins). Je ne parle pas ici de la ps4 pro et de la x1x car les jeux qui sortent sur ces consoles sont créés avant tout pour leurs ainées donc avec un objectif initial de 1080@30fps. Les éditeurs et développeurs ne cachent pas que c'est un choix volontaire d'etre descendu à 30fps depuis plusieurs générations de consoles, car il est préférable, selon ces professionnels, d'avoir un jeu plus beau mais moins fluide, le joueur lambda voyant plus facilement une difference entre des textures hd plutot qu'un framerate élevé. Je ne suis bien sur pas en train de dire qu'il n'est pas important d'avoir un bon framerate notamment pour des jeux compétitifs. Chaque jeu nécessite des objectifs adaptés, et chaque joueur a sa propre sensibilitée. Et peut être que la démocratisation de jeux comme Fortnite poussera les créateurs à changer leur fusil d'épaule sur la prochaine génération. Je souhaite simplement dire que l'on est finalement loin de la norme 1440p@144fps. Et je parle de console mais il est également possible d'aller interroger la base statistique de Steam pour s'appercevoir que même sur PC on est très loin de parler de norme.
                            De plus, si plutot que de parler de SLI ou CFX, on parle de budget, alors dépenser 500€ dans une 2070 cest dépenser autant que pour un SLI/CFX à l'époque. Et si l'achat d'un SLI/CFX pour atteindre les 60fps n'était pas conseillé à l'époque je ne comprends pas bien pourquoi il le serait aujourd'hui. Ce que je veux dire, c'est que tu dis que les normes ont changé. Moi je dis que à l'époque comme aujourd'hui, 60fps = GPU à 500€. Seuls la résolution et les jeux ont changé. Alors si l'on ne conseillait pas à l'époque de mettre systématiquement 500€ pour atteindre les 60fps, il n'y a pas plus de raison de le faire aujourd'hui.
                            • Partager sur Facebook
                            • Partager sur Twitter
                              Staff 13 mars 2019 à 3:42:27

                              Heu… c'est pas tout à fait comme ça que ça fonctionne : en jeu, le GPU est l'élément le plus important mais il ne faut pas qu'il soit bridé non plus par le CPU. Ce dernier n'est donc pas pleinement utilisé comme il pourrait l'être avec un autre type d'utilisation (graphisme 3D, traitement vidéo, etc.) et se baser uniquement sur sont pourcentage d'utilisation serait donc trompeur. L'idéal serait donc de pouvoir tester chaque GPU associé à chaque CPU afin de voir ce que ça donne dans les 3 définitions standards actuelles @60Hz et @120Hz/144Hz… à ma connaissance, il n'existe aucun comparatif de ce type et il faut donc obligatoirement passer par les comparatifs/tests de CPU et de GPU. Ce qui, aujourd'hui, en fonction de ce que j'ai pu trouver donnerait plus ou moins :

                              • Full HD (1.920x1.080) @60Hz : INTEL Core i3 93xx + nVIDIA GeFORCE GTX 1650 (à confirmer) en "Middle", AMD Ryzen 5 2600X + nVIDIA GeFORCE GTX 1660 (à confirmer) en "High" et INTEL Core i5 9400(F) + nVIDIA GeFORCE GTX 1660 Ti en "Ultra"
                              • Full HD (1.920x1.080) @144Hz & Quad HD (2.560x1.440) @60Hz : INTEL Core i5 9400(F) + nVIDIA GeFORCE GTX 1660 Ti en "Middle", AMD Ryzen 7 2700X + nVIDIA GeFORCE RTX 2060 en "High" et INTEL Core i5 9600K + nVIDIA GeFORCE RTX 2070 en "Ultra"
                              • Quad HD (2.560x1.440) @144Hz & Ultra HD (3.840x2.160) @60Hz : INTEL Core i5 9600K + nVIDIA GeFORCE RTX 2070 en "Middle", INTEL Core i7 9700K + nVIDIA GeFORCE RTX 2080 en "High" et INTEL Core i9 9900K + nVIDIA GeFORCE RTX 2080 Ti en "Ultra"

                              Donc, bien franchement, je doute sérieusement qu'un CPU aussi ancien que ton actuel INTEL Core i5 2500K mais très fortement overclocké puisse correctement 2nder un GPU aussi performant que le nVIDIA GeFORCE RTX 2060 pour jouer en Quad HD (2.560x1.440) et encore plus en Ultra HD (3.840x2.160)... je me répète mais la fréquence ne fait pas tout, loin de là.

                              Quant à cette histoire de "norme", même si elles n'y arrivent pas toujours, les consoles actuelles sont prévues pour faire tourner les jeux en Full HD (1.920x1.080) avec 60ips de moyenne… les PS4 Pro et Xbox One X étant prévues jouer en Ultra HD (3.840x2.160). De plus, ici, on parle de PC et ce n'est pas tout à fait la même chose car on va de plus en plus vers du jeu @120Hz/144Hz tout en laissant p'tit-à-p'tit le Full HD (1.920x1.080) pour l'Ultra HD (3.840x2.160) avec une transition par le Quad HD (2.560x1.440)… et je ne parle même pas des écrans 21:9 et 32:9/32:10, ni du MultiScreen.

                              Donc, si on est pas encore sur du Quad HD (2.560x1.440) @144Hz, il y a tout de même de plus en plus de demandes dans ce sens mais, pour le moment, la norme serait plus le Full HD (1.920x1.080) @144Hz/le Quad HD (2.560x1.440) @60Hz qui sont plus abordables. Mais, à terme, on se dirige vers l'Ultra HD (3.840x2.160) afin de rattraper ce qui se fait sur les TV et car ça devrait également être la norme des futures consoles.

                              Enfin, excepté dans le monde professionnel, on peut plus ou moins dire que le CrossFire/SLI est terminé pour le grand public et, comme depuis toujours, à performances plus ou moins égales, il est préférable d'avoir une seule carte graphique plutôt que 2. Par contre, se baser sur le budget ne me semble pas la meilleure des solutions car, même si on peut constater une baisse ces dernies mois, les prix ont pas mal augmenté ces dernières années : il y a quelque temps, on pouvait faire une config' (unité centrale + écran) permettant de jouer en Full HD (1.920x1.080à @60Hz pour ~1.000€, aujourd'hui, il faut bien plus compter ~1.300€.

                              Donc, si avant ont ne conseillé pas le jeux @60fps et plus, c'est surtout parce que ça coûtait beaucoup trop cher et parce que le CrossFire/SLI n'a jamais réellement été une bonne solution vue que ce type de configuration n'est pas toujours très bien dans les jeux. De plus, même à ~500€, la nVIDIA GeFORCE RTX 2070 est nettement plus performante qu'un CrossFire/SLI de prix équivalent… c'est donc pas trop comparable à ce niveau-là. Surtout que, aujourd'hui, les 60fps sont facilement atteignables dans toutes les définitions… actuellement, en Full HD (1.920x1.080), il faut compter ~300€ pour la carte graphique (la nVIDIA GeFORCE GTX 1660 Ti). La carte graphique à ~500€ (la nVIDIA GeFORCE RTX 2070) permettant, elle, de jouer dans cette même définition mais à 144fps... les choses ont donc bien changées/évoluées avec du bien (GPU nettement plus performant à prix équivalent) et du moins bien (prix en hausse pour plusieurs pièces).

                              -
                              Edité par CyberS@m 13 mars 2019 à 3:56:37

                              • Partager sur Facebook
                              • Partager sur Twitter
                                13 mars 2019 à 9:29:45

                                Mouais, on n'est pas tout a fait d'accord pour le coup. Mais chacun son avis :)

                                Un truc cependant me fait tilter:

                                "se baser uniquement sur sont pourcentage d'utilisation serait donc trompeur". As tu trouvé une étude qui permet de vérifier cela? Car de ce que j'ai vu on est plutot sur du tout ou rien. Cad que si le CPU est à sa charge max, alors on est CPU bound, sinon on est GPU bound. En tout cas c'est comme ca que j'interprete le dossier que tu as envoyé: sur ashe, hitman et deus ex on est CPU bound et l'augmentation de la puissance du processeur permet de faire grimper le framerate. Sur Division et Witcher on est GPU bound, et quelque soit le processeur les FPS restent exactement les mêmes.

                                Et je ne pense pas que la fréquence fasse tout, bien au contraire. J'indique simplement @4.5GHZ à chaque fois pour être sur qu'on ne parle pas d'un 2500 stock. Pour moi ce qui fait tout, c'est le taux d'utilisation. Mais peut etre que mon raisonnement est trop manichéen.

                                -
                                Edité par fred1988 13 mars 2019 à 9:53:02

                                • Partager sur Facebook
                                • Partager sur Twitter
                                  Staff 13 mars 2019 à 14:40:01

                                  OK… mais, par rapport au dossier que j'ai mis en lien, the Division et the Witcher III: Wild Hunt ne sont, à mon avis, pas à prendre en compte car, comme c'est indiqué, ils sont limités par la carte graphique qui, si elle avait plus performante, aurait probablement montrer plus ou moins la même chose qu'avec les autres jeux où le vieil INTEL Core i5 2500K est systématiquement dernier… et c'est la même chose lorsqu'il est overclocké @4GHz (ça ne doit pas changer grand chose @4,5GHz).

                                  Par contre, je n'ai aucun article/dossier sur ce que j'ai avancé concernant le fait de se baser uniquement sur le pourcentage d'utilisation du CPU" : ce n'est que ma propre conclusion basée sur tous les comparatifs/tests que j'ai pu lire.

                                  Maintenant, libre à toi de quand même prendre une nVIDIA GeFORCE RTX 2060 si tu penses qu'elle pourrait te suffire mais, perso, je ne te le conseillerais pas du tout et, à mon avis, il serait bien mieux d'attendre d'avoir le budget pour, en plus de la carte graphique, changer aussi le CPU, son ventirad, la carte mère et la RAM afin d'avoir quelque chose qui soit à jour, bien équilibré et adapté au mieux à tes besoins.

                                  • Partager sur Facebook
                                  • Partager sur Twitter
                                    14 mars 2019 à 1:57:02

                                    Je vais poser la question differemment : Penses tu que l'on puisse mesurer une difference de framerate entre la config du test du comptoire du hardware (basée sur un i9 9900K@5GHz et la mienne si on remplace la 970 par une 2060, en particulier sur Assassin's Creed Odyssey (en WQHD ultra (settings utilisés dans le test)), et sur The Witcher 3 (en WQHD extreme hairworkx4 (settings du test)) qui sont les deux jeux présents dans le test auxquels je souhaite pouvoir jouer?

                                    http://www.comptoir-hardware.com/articles/cartes-graphiques/37990-test-nvidia-geforce-rtx-2060.html?start=5

                                    • Partager sur Facebook
                                    • Partager sur Twitter
                                      Staff 14 mars 2019 à 3:04:07

                                      Heu… si on se base sur ce comparatif (plus récent/plus complet que celui que tu as mis en lien), il devrait clairement une différence de performance entre la config' qui y est utilisée et la tienne si tu remplaçais la carte graphique actuelle (moins performante que les nVIDIA GeFORCE GTX 980 & 1060/6Go du comparatif) par la nVIDIA GeFORCE RTX 2060.

                                      Par contre, comme dans ce comparatif, le CPU utilisé est le plus performant en jeu actuellement (poussé @5GHz en plus) afin d'influencer le moins possible les résultats car ce sont uniquement les cartes graphiques qui sont comparées, il faudrait le recouper avec un comparatif de CPU (cf. mes précédents posts) afin d'avoir une idée plus précises de ce que donnerait tel ou tel CPU associé à tel ou tel GPU.

                                      De plus, Assassin's Creed Odyssey ayant été codé avec les pieds (ce qui est étonnant car le précédent opus, Assassin's Creed Origins, était très bien de ce côté-là), je ne suis pas sûr qu'il soit le meilleur jeu sur lequel se basé car, en plus d'un GPU performant, il lui faut aussi un CPU très performant… pour rester sur les jeux de ta liste, mieux vaudrait attendre un performance test de the Division 2 afin d'avoir quelque chose de récent/gourmand sur lequel se baser (il devrait probablement être le plus gourmand de ta liste… après Assassin's Creed Odyssey).

                                      • Partager sur Facebook
                                      • Partager sur Twitter
                                        14 mars 2019 à 10:58:14

                                         Concernant le dossier que tu as mis en lien quelques posts plus haut:

                                        "the Division et the Witcher III: Wild Hunt ne sont, à mon avis, pas à prendre en compte car, comme c'est indiqué, ils sont limités par la carte graphique"

                                        ces deux jeux permettent de déterminer si le CPU peut dans certains cas alléger la charge du GPU et donc augmenter le framerate. Ils permettent donc de savoir si un CPU peut avoir une influence sur le framerate lorsque le GPU est limitant. C'est la question que je posais ici:

                                        ""se baser uniquement sur sont pourcentage d'utilisation serait donc trompeur". As tu trouvé une étude qui permet de vérifier cela?"

                                        Les 3 autres jeux permettent de savoir à partir de combien de fps un CPU est bridé (facteur qui ne dépend théoriquement pas de la résolution). Donc ces 3 jeux permettent de savoir en recoupant avec des benchmark GPU si le CPU sera limitant ou non. C'est la démonstration mathématique que je faisais plus haut.


                                        "il devrait clairement une différence de performance entre la config' qui y est utilisée et la tienne si tu remplaçais la carte graphique actuelle par la nVIDIA GeFORCE RTX 2060."

                                        Crois moi ou non mais j'ai recu ma 2060 gaming z hier et j'ai pu faire quelques tests: je ne mesure aucune différences dans les conditions de test décrites dans mon post précédent (n'hésite pas si tu as besoin de plus de détails ou si tu souhaites que je publie des photos/vidéos). En effet je rappelle que mon besoin initial est de pouvoir jouer à 30FPS constant en 4K sur les jeux solo, et 30 voir 60FPS constant sur les jeux multi/clavier souris. J'ai mesuré sur The Witcher en WQHD Extrem Hairworkx4 en me baladant dans un village 60 FPS et sur Assassin's Creed Odyssey en WQHD Ultra 42 FPS en me baladant dans une ville.

                                        Voici plus de tests:

                                        The Witcher (ultra HairWorkx4 en se balladant dans un village):

                                        ResolutionFramerateFacteur limitant
                                        FullHD  60  écran
                                        WQHD  60  écran
                                        4K  42  GPU

                                        Remarque:

                                        Mon besoin étant de jouer à 30FPS constant en 4K, on est ici très large, alors que l'on est en Ultra avec des paramètres inutiles dans ces résolutions comme l'anti aliasing à fond! Ici le GPU comme le CPU sont parfaitement adaptés à mon besoin.

                                        AC Odyssey (very high en se baladant dans une ville):

                                        ResolutionFramerateFacteur limitant
                                        FullHD  53  CPU
                                        WQHD  53  CPU + GPU
                                        4K  26  GPU

                                        Remarque:

                                        Attention à ne pas confondre ces résultats avec le test fait en Ultra décrit plus haut qui était fait pour la comparaison avec le dossier. Mon besoin étant de jouer à 30FPS constant en 4K, on devrait réussir à être assez confortable. Encore une fois, il sera possible de baisser l'AA (ici sur "très élevé" qui est la valeur max. J'imagine un x16) et quelques options pas très importantes en 4K pour monter vers du 40 FPS, afin d'assurer un 30FPS constant. Dans tous les cas, le CPU n'est pas limitant pour mon cas d'utilisation. On remarque d'ailleurs qu'en WQHD on est sur un cas d'optimisation de config assez parfait puisque le CPU et le GPU sont tous les 2 à la charge maximale (100%).

                                        The Division 2 (Ultra, AAx4, DX12 en se baladant dans le HUB de départ):

                                        ResolutionFramerateFacteur limitant
                                        FullHD  60  écran
                                        WQHD  60  écran
                                        4K  35  GPU

                                        Remarque:

                                        Je suis conscient que ce test n'est pas révélateur des performances en jeu. En effet tester le framerate sur le HUB de départ ne reflète probablement pas les performances dans la DarkZone de Washington. Mais je n'ai pas encore pu aller plus loin, et comme c'est le seul autre jeu installé sur mon PC je publie quand même ces premiers résultats. Mon besoin étant de jouer à 30 voir 60FPS constant en WQHD, on est dans un état parfaitement confortable puisqu'en 60FPS constant. En espérant que le jeu tourne aussi bien dans Washington.

                                        En conclusion, ces résultats sont au dessus de mes espérances puisque je m'attendais à voir une légère baisse entre une config de brute à base de i9 9900K@5GHz et mon petit i5 2500K@4.5GHz, hors il n'en est rien. Mon fidèle CPU n'est limitant dans aucun cas d'utilisation. Mieux: il aurait pu supporter une RTX 2080 si j'en avais eu le budget (ce qui n'était pas le cas), ce qui aurait permis de gonfler les performances en 4K sur The Witcher et AC Odyssey en atteignant respectivement 60fps et 42fps (valeur sous la limite de ce que peut supporter le i5 2500K@4.5GHz). Sous réserve que les performances restent aussi bonnes sur The Division 2 dans des conditions d'utilisation standards, je pense avoir fait le choix le plus avantageux en achetant la RTX 2060 Gaming Z seule, car mettre 700€ de plus dans un CPU+RAM+CM+Fan ne m'aurais pas permis de gagner 1 seule image par seconde (seul l'ajout d'une 2080Ti aurait pu justifier un changement de processeur ce qui était hors de question).

                                        -
                                        Edité par fred1988 14 mars 2019 à 10:59:10

                                        • Partager sur Facebook
                                        • Partager sur Twitter
                                          Staff 14 mars 2019 à 16:12:56

                                          Hum… le "problème", pour moi, c'est que, aujourd'hui, on ne vise plus les 30fps dans les jeux (c'est la limite basse sous laquelle il ne vaut mieux pas descendre si on veut que ça soit fluide : mieux vaut, au minimum, 40fps de moyenne, ce qui n'empêchera pas les baisses de framerate sous les 30fps et, donc, des saccades) mais les 60fps afin d'avoir quelque chose de fluide en "toute circonstance"... on se dirige même de plus en plus vers du 120/144fps car ça n'est pas utile que dans les jeux rapides/compétitif.

                                          Ensuite, pour ce qui est de ce que tu nous rapportes depuis que tu as reçu ta nouvelle nVIDIA GeFORCE RTX 2060 (comme tu ne sembles pas vouloir utiliser le RayTracing en temps réel, une nVIDIA GeFORCE GTX 1660 (Ti) aurait probablement suffit), déjà, il faudrait nous dire si tu as activé la synchronisation verticale car, vue les 60fps maximum, ça me semblerait être le cas et, à mon avis (même si ça entraine du tearing), il serait préférable de la désactiver… ça permettrait de vraiment voir ce que donne cette carte graphique avec ton CPU.

                                          Après, je n'ai jamais dit que tu ne pourrais pas jouer en Quad HD (2.560x1.440) voir, même si ça me semble globalement un peu faible, en Ultra HD (3.840x2.160) mais que, avec un CPU plus performant/plus récent, tu pourrais avoir encore mieux et que, vue le prix de la carte graphique, il me semble dommage de ne pas pouvoir pleinement en profiter. Par contre, effectivement, ça rajoute un surcoût plus que non-négligeable.

                                          Donc, je ne pense pas qu'on sera d'accords sur ce coup-là mais, si jouer à 30fps te convient, je n'aurais pas grand chose à rajouter. Par contre, si tu veux avoir quelque chose de fluide en toute circonstance et être "à jour" en passant sur du 60fps, ta config' actuelle ne me parait pas trop adaptée car limitée par le CPU qui a fait son temps… et un GPU plus performant aurait également été préférable pour jouer dans ces mêmes circonstances en Ultra HD (3.840x2.160).

                                          PS : cette discussion me fait un peu penser au moment où les SSD sont sortis. Certains disaient que les HDD étaient encore très bien et suffisants mais, une fois qu'ils y ont goûté, ils n'ont plus voulu y revenir car ils sont bien plus lents et parce que les SSD permettent une bien meilleure sensation de fluidité (notamment dans les jeux). Ici, c'est un peu la même chose avec cette histoire de jouer à 30fps ou à 60fps voir plus.

                                          • Partager sur Facebook
                                          • Partager sur Twitter
                                            14 mars 2019 à 17:07:19

                                            "il faudrait nous dire si tu as activé la synchronisation verticale car, vue les 60fps maximum, ça me semblerait être le cas"

                                            Je ne l'ai pas activé, en revanche j'ai activé la limite max de FPS à 60 afin de ne pas faire travailler les composant inutilement (inutile de sortir 100 images si l'écran ne peut en afficher que 60). Je ne désactiverai pas cette option car elle rendrait ma config plus bruyante inutilement et userait les composants (sauf si ca t'interesse pour un test). Mon but n'était pas de benchmarker la carte mais de vérifier que le CPU n'était pas bottleneck.


                                            "une nVIDIA GeFORCE GTX 1660 (Ti) aurait probablement suffit"

                                            pour le coup je pense qu'il aurait été impossible de jouer en 4K avec une 1660(Ti). La 2060 rentrait dans le budget, surtout si je réussis à revendre le jeu gratuit pour une 30aine ou 40aine d'euro ;) 


                                            "avec un CPU plus performant/plus récent, tu pourrais avoir encore mieux"

                                            je me permets de rappeler ici mes conclusions:

                                            "[le i5 2500K@4.5GHz] aurait pu supporter une RTX 2080" (sans être CPU bound)

                                            "mettre 700€ de plus dans un CPU+RAM+CM+Fan ne m'aurais pas permis de gagner 1 seule image par seconde" (en restant sur une 2060)

                                            Ma config fait tourner les jeux au même framerate que la config i9 9900K@5Ghz (dans les conditions d'utilisation souhaitées qui sont pour rappel 4K sur les jeux solo, et WQHD pour les jeux multi/clavier souris). Donc non, ça n'est pas ce que je mesure.


                                            "PS : cette discussion me fait un peu penser au moment où les SSD sont sortis"

                                            j'y ai pensé aussi :) à la différence que si je préfère la fluidité à la résolution, je peux toujours jouer en 1440p. J'ai essayé hier et très franchement je ne vois pas vraiment de différence avec la 4K. Si je part sur du WQHD (ou si je joue en medium 4K) sur les jeux solo pour etre en 60fps, alors le seul cas ou le CPU serait limitant serait ACO (53fps au lieu de 60). Ce qui est je pense déja très convenable.

                                            Je pense que le jeu, à l'heure d'aujourd'hui, n'est pas adapté au 4K. Ca ne sert pas à grand chose d'afficher un asset de manière ultra nette, si la texture n'est pas détaillée et que l'asset est low poly. Sur une TV 65", la différence entre du fullHD et du 4K est clairement visible. Entre du WQHD et du 4K, elle est dejà beaucoup moins perceptible, et au final on se dit en voyant l'écran que le problème n'est pas dans la finesse d'affichage mais dans le remplissage du monde lui même. C'est difficile à expliquer. Je peux faire le parrallele avec un le remaster des vieux jeux par exemple. Age of Empire  ou warcraft 3 remaster: les devs ont release un remaster pour les faire tourner en 1080 voir 4K avec des textures plus fines etc, le jeu n'en devient pas "beau" pour autant. Il est mieux c'est incontestable, mais il reste largement en dessous de ce qu'on pourrait trouver "beau" aujourd'hui. Les assets sont low poly, le monde comporte très peu d'objet etc. J'ai le même ressenti avec la 4K. En revanche je n'ai pas ce ressenti lorsque je regarde un film ou une vidéo 4K. Là on sent que la 4K apporte un réel plus, meme comparé à du WQHD.

                                            • Partager sur Facebook
                                            • Partager sur Twitter
                                              Staff 14 mars 2019 à 17:48:04

                                              1° - J'avoue ne pas trop capter pourquoi tu te limites à 60fps car ce n'est pas parce que l'écran est limité @60Hz que ça n'est pas utile d'avoir plus de fps en jeu… j'avais lu un article à ce sujet il y a un moment et c'est une idée reçue. Le seul intérêt d'activer la synchronisation verticale et/ou de te limiter à 60fps est d'éviter le tearing. Pour ce qui est de l'usure des pièces, t'inquiètes, elles sont prévues pour ça vue que ça reste leur usage normal… il n'y a aucun overclocking. Par contre, en effet, ça peut les rendre plus bruyantes. Après, il suffit de choisir des pièces silencieuses pour éviter ce type de désagrément.

                                              De plus, ça serait intéressant de voir à combien de fps tu peux monter avec ta config'.

                                              2° - L'écart de performances entre les nVIDIA GeFORCE GTX 1660 Ti & RTX 2060 n'étant pas énorme dans les jeux auxquels tu joues, ça aurait pu te permettre d'économiser quelques €uros… pour jouer en Quad HD (2.560x1.440) car, pour moi, à moins de faire trop de concession (quoique l'AntiAliasing n'est plus vraiment utile dans une telle définition), ta config' n'est pas adaptée pour de l'Ultra HD (3.840x2.160) car, aujourd'hui, se limiter à 30fps n'est pas conseillé.

                                              3° - Mouai… pour moi, ta nouvelle nVIDIA GeFORCE RTX 2060 est déjà bridée (un peu) par ton CPU actuel (ça ne veut pas dire que c'est pas jouable mais, comme déjà dit, juste que tu aurais pu avoir mieux)… alors avec une carte graphique encore plus performante, ça serait pire.

                                              Et, si passer à un CPU plus performant/plus récent te serait effectivement revenu plutôt cher sans forcément avoir un énorme gain sur le framerate maximum, ça aurait par contre probablement permis d'avoir beaucoup moins de baisse de fps.

                                              4° - Déjà, jouer dans une définition plus faible que celle native de l'écran n'est pas très conseillé car ça dégrade la qualité d'affichage et les textes peuvent devenir flous voir même illisibles. Après, comme tu joues sur un TV (à moins d'en avoir une de très bonne qualité, les TV ne sont pas vraiment ce qu'il y a de mieux adapté pour le jeu en ligne du fait de leur Input Lag trop généralement trop élevé… et je ne parle même pas de leurs temps de réponse), ça lisse ce type de problème du fait des chips de mise à l'échelle et autre.

                                              Ensuite, jouer en "Medium" est, à mon avis, déconseillé car on perd des infos graphiques qui peuvent être fatales en pleine partie (par exemple, un élément du décor qui n'apparait qu'une fois que tu es rentré dedans… ça m'est déjà arrivé).

                                              Par contre, je serais assez du même avis que toi en ce qui concerne le fait de jouer en Ultra HD (3.840x2.160) à des jeux qui, apparemment, n'ont été prévu que pour du Full HD (1.920x1.080) : les textures trop faiblement détaillées qui bavent, c'est pas terrible quant on a une config' qui, normalement, devrait pouvoir permettre d'éviter ce genre de chose… ça devrait pouvoir s'améliorer lorsque les consoles seront vraiment passer à cette définition.

                                              Quant au vieux jeux remasterisés, c'est un peu de l'arnaque (une pauvre refonte graphique améliorant uniquement un peu le niveau de détail des textures et permettant dans les définitions standards d'aujourd'hui) surfant sur la nostalgie de certains. Vue le prix auxquels sont vendus ces remasterisations, il aurait été bien mieux de porter ces jeux sur des moteurs actuels en refaisant tout de A à Z.

                                              • Partager sur Facebook
                                              • Partager sur Twitter
                                                14 mars 2019 à 18:34:20

                                                1. alors là je vois pas du tout à quoi ça pourrait servir d'avoir 300 fps théorique mais n'en afficher que 60. Si tu retrouves la raison, je suis preneur. Je comprends tout à fait qu'on puisse préférer jouer en 144Hz si l'écran le permet mais si l'écran limite à 60fps il me semble inutile d'en calculer plus.

                                                2. J'ai acheté ma MSI 2060 Gaming Z en suisse à 414€. Si je réussi à vendre le jeu gratuit pour 40€ on descend à 375€. Une 1660Ti moins performante est aux alentour de 325€ soit 50€ de plus pour des performances inférieures. J'ai fait le choix de prendre une 2060 car le budget le permettait et qu'elle est plus récente.

                                                3. Encore une fois. Une config a base de i9 9900K@5GHz donne exactement les mêmes résultats que ma config. Dire le contraire reviendrait à nier les faits. J'entends ton argument qui dit qu'il peut y'avoir des drop down de temps en temps, mais la moyenne de framerate en sera très peu impactée, et sur des jeux non compétitifs (The Division tournant à 60FPS ultra et étant le seul jeu compétitif auquel je vais jouer), ca n'est pas très grave.

                                                Ce que je pense, c'est qu'une config équilibrée est une config qui tire le maximum de son CPU ET de son GPU. Avoir un CPU qui tourne à 50% la plus part du temps est équivalent pour moi au fait d'avoir une carte qui tourne à 50% tout du long parce que le CPU est trop faible. Dans un cas comme dans l'autre, la config n'est pas équilibrée. Avoir des drop down dus au CPU est a mon sens normal, comme avoir des drop down dus au GPU. Et si tu penses qu'il est dommage d'avoir d'être limité 20% du temps par le CPU (et je suis large en disant 20%) parce que la carte coute 400€, alors je pense avec le même raisonnement qu'il serait dommage d'acheter un CPU + CM + RAM + Fan à 700€ pour être limité 100% du temps par le GPU.

                                                En revanche, je suis tout à fait d'avis qu'il vaut mieux investir dans un excellent CPU à l'achat d'une nouvelle config afin de pouvoir remplacer la carte graphique plusieurs fois.

                                                4. Je joue sur la TV uniquement pour les jeux solo.

                                                C'est vrai que les options graphiques ont un impacte sur les infos qui peuvent être importantes en jeu. Mais il serait faut de dire que jouer en medium est toujours handicapant par rapport à de l'ultra. En effet, les joueurs pro sur Starcraft 2 par exemple jouent en basse qualité non pas pour gagner des FPS mais car certains FX dans les qualités supérieurs cachent l'action qui se passe derrière. Et en pleine bataille de micro gestion au maximum de population c'est très handicapant de ne pas voir ses unités.

                                                Je ne dis pas que je jouerai en medium. Simplement que si je souhaite jouer en 60fps (ce qui n'est pas sur), il faudra faire des concessions soit sur les options graphiques, soit sur la résolution. Ce choix sera fait en fonction de ce que je trouve le plus agréable. En attendant, je pense qu'ACO à 53FPS en very high WQHD peut etre un excellent compromis, et qu'un TW en ultra 4K avec un AA plus faible pour atteindre potentiellement les 60FPS serait également plus confortable.

                                                Concernant le fait de rendre une image dans une résolution non native puis de l'upscaler, je ne sais pas si tu as lu cet article (hypothèse non confirmée si j'ai rien raté) interessant concernant le DLSS de Nvidia. Malgrès l'upscaling, il n’empêche que les résultats du DLSS semblent très bons en 4K pour un gain non négligeable sur le framerate.

                                                • Partager sur Facebook
                                                • Partager sur Twitter
                                                  Staff 14 mars 2019 à 22:46:52

                                                  1° - Je cherche depuis tout à l'heure mais impossible de remettre la main dessus :(. Donc, pour le moment, je te répondrais juste que : qui peut le plus, peut le moins et que c'est nettement préférable au contraire.

                                                  2° - Ca se défend en effet mais, si tu ne comptes pas jouer à des jeux utilisant le RayTracing en temps réel, la nVIDIA GeFORCE GTX 1660 Ti aurait probablement été suffisante tout en te permettant d'économiser une 50aine d'€uros, ce qui n'est pas négligeable.

                                                  3° - Les résultats que tu obtiens (avec quoi as-tu mesurer les fps ?) ne sont pas tout à fait les mêmes qu'avec la config' du test du Comptoir du Hardware : en se basant sur le Quad HD (2.560x1.440), tu obtiens 53fps dans Assassin's Creed Odyssey vs. 41fps, 60fps dans the Division (je suppose que c'est le 1er et non le 2nd qui n'est pas encore sorti) vs. 49fps et encore 60fps dans the Witcher III: Wild Hunt vs. 58fps... tu est systématiquement au-dessus alors que ton CPU est beaucoup moins performant que l'INTEL Core i9 9900K @5GHz utilisé. Du coup, je t'avoue que je capte pas trop car ça va à l'encontre de tous les comparatifs/tests que j'ai pu lire :euh:.

                                                  Quant à l'équilibrage, pour moi, c'est lorsque le CPU permet de profiter pleinement du GPU… et je ne pense toujours pas que c'est le cas ici.

                                                  4° - J'avais zappé que tu avais une TV OLED qui, effectivement, est probablement ce qu'il y a de mieux pour jouer en solo du fait du temps de réponse très rapide de ce type de dalle. Par contre, effectivement, en ligne, mieux vaut jouer sur l'écran car son Input Lag est (bien) plus faible.

                                                  Quant à l'histoire des joueurs professionnels, je t'avouerais que c'est quelque chose que je n'ai jamais trop capté : c'est un peu comme si, sur un champ de bataille, on diminuait voir enlevait la fumée et les explosions parce que ça masque certaines parties du terrain… pour reprendre ton exemple avec StarCraft II, dans ce cas, pourquoi ne pas enlever tout ce qui gêne comme la végétation, certains bâtiments, etc. Pour moi, ça fait partie du jeu et il faut faire avec même si ça peut être gênant. Pourquoi, dans ce cas, ne pas enlever les fumigènes dans Counter-Strike: Global Offensive car ça empêche de voir ses coéquipiers ?

                                                  Et, pour ce qui est des options graphiques, là non plus, on ne sera pas d'accords car, aujourd'hui, la norme est de 60fps dans les jeux. Donc, si pour arriver à un tel framerate, tu dois baisser ces options graphiques, c'est bien que le GPU n'est pas assez performant... toujours en restant sur du Quad HD (2.560x1.440) car, je le répète, la nVIDIA GeFORCE RTX 2060 est trop faible pour au moins correctement jouer (en "High" @60fps) en Ultra HD (3.840x2.160).

                                                  Enfin, concernant le DLSS, pour le moment je suis assez partagé car, si elle devrait probablement diminuer à terme, ça entraîne tout de même une dégradation de la qualité d'image… mais l'AntiAliasing également (ça amène du flou plus ou moins prononcé suivant la méthode utilisée). À voir ce que ça donnera plus tard car ce n'est qu'une technique pour palier au surcoût entraîné par le RayTracing en temps réel (les futures GPU devraient pouvoir limiter l'usage du DLSS car ils devraient être de plus en plus performants dans ce domaine). Wait and see comme on dit ;).

                                                  • Partager sur Facebook
                                                  • Partager sur Twitter
                                                    15 mars 2019 à 0:26:05

                                                    1. certes, qui peut le plus peut le moins mais de la a faire des calculs dans le vent je pense pas que ce soit utile.

                                                    3. Non tu as mal lu mes résultats. Je précise qu'en ultra (et non en very high) je suis a 42 fps sur ACO (vs 41). Et je parles bien de the division 2 qui est jouable depuis le debut de la semaine pour ceux qui l'ont précommandé. C'est pour ca que je ne fais pas de comparatif à son sujet. Et sur The Witcher tu compares une MSI gaming Z overcloackée a une founder edition. La différence de 2 fps est donc explicable même si un écart si faible peut s´expliquer aussi par la différence de pathway utilisé durant le test.

                                                    4. Disons que les pro retirent tout ce qui peut les géner. Si le jeu permettait de retirer les fumigènes ils le feraient. On est en train de parler de gens qui doivent gagner pour avoir un salaire. Pas pour s'amuser. Ils ne peuvent pas se permettre de se mettre des handicap pour l'amour du jeu car si eux le font, l'adversaire, lui, ne le fera pas.

                                                    Je ne peux effectivement pas jouer en 4k a 60 fps en hith. Mais mon budget n'etant pas infini j'ai pris le meilleur compromis je pense ;)

                                                    • Partager sur Facebook
                                                    • Partager sur Twitter
                                                      Staff 15 mars 2019 à 1:38:55

                                                      1° - Tout à fait… c'est pour ça que ça ne sert à rien de prendre une carte graphique surdimensionnée. Après, il me semble tout de même préférable qu'elle ne soit pas adaptée pile poil pour ce que l'on souhaite faire mais qu'elle soit un p'tit peu surdimensionnée.

                                                      3° - Oops… je ne savais pas que the Division 2 était déjà disponible pour ceux qui l'avait précommandé. Après, comme il n'a pas encore été testé, il ne serait effectivement pas utile de se baser dessus pour le moment.

                                                      Par contre, pour ce qui est de the Witcher III: Wild Hunt, comme tu as un modèle overclocké, à config' égale, la différence avec la Founder Edition devrait être un peu plus grande… cf. ici (en Anglais).

                                                      4° - Dans ce cas, au paintball ou pour l'airsoft, on pourrait alors remplacer les armes par des Nerf parce que la douleur empêche de correctement viser. Même pour du gaming professionnel, je ne capte vraiment pas l'intérêt de modifier les graphismes d'un jeu… surtout que, normalement, ce type de joueurs a accès à des config' permettant de jouer avec tout à fond sans aucun problème, les mettant sur un même pied d'égalité (pour moi, désactiver certaines options graphiques est à la limite du cheat : il y a eu une histoire de ce genre avec un joueur de Battlefield V qui jouait tout en "Low" et qui s'est fait bannir car le jeu n'avait plus rien à voir… plus de végétation, etc.).

                                                      5° - C'est effectivement un compromis mais, à mon avis, il est sous estimé (tu t'es basé sur du jeu @30fps alors qu'il aurait fallu viser du 60fps) et tu as pris le problème à l'envers : tu as regarder ton budget et, ensuite, tu as pris quelque chose en fonction de tes moyens alors qu'il me semble préférable de regarder ce qu'on souhaiterait faire puis de voir ce qu'il faudrait pour ça et, enfin, économiser pour prendre quelque chose de bien équilibré et, surtout, d'adapté au mieux à ces besoins.

                                                      • Partager sur Facebook
                                                      • Partager sur Twitter
                                                        15 mars 2019 à 9:41:30

                                                        1. chacun sa conception du pile poile ;)

                                                        3. tu n'as pas mis le lien. J'ai trouvé ca en revanche (je pense qu'ils ont désactivé le hairworks donc les options nétant pas les mêmes c'est pas comparable à mes résultats). On voit que la différence entre une carte MSI et la FE est très mince.

                                                        https://www.tomshardware.fr/test-msi-rtx-2060-gaming-z-une-carte-sous-steroides/4/

                                                        4. les pro ne jouent pas uniquement dans des arènes ou tout est maitrisé. Ils jouent souvent depuis chez eux. Il serait alors compliqué de mettre en place des règles spécifiques pour les pro.

                                                        5. j'ai les finances pour acheter une carte à 1500€. C'est juste qu'il est hors de question que je dépense plus que 400€ dans une carte graphique ;) Je ne m'en sers pas assez souvent pour ca. Et je préfère garder mon argent pour d'autres choses que j'estime plus important qu'une 10aine de fps. Et puis en plus je ne souhaite pas soutenir cette industrie qui tire les prix vers le haut "tant que les gens achetent". Y'a 10 ans, la 3eme carte la plus chère d'un constructeur était vers les 300€. Aujourd'hui elle tourne autour des 500€ C'est démentiel...

                                                        • Partager sur Facebook
                                                        • Partager sur Twitter
                                                          Staff 15 mars 2019 à 15:54:46

                                                          3° - Oops… voilà le lien (en Anglais) : la différence entre les 2 cartes y est plus marquée mais, là-aussi, HairWorks est désactivé.

                                                          4° - Les joueurs professionnels doivent tout de même avoir de quoi faire tourner leur(s) jeu(x) sans aucun problème : normalement, ce sont des passionnés (ils devraient donc investir un peu plus dans leur config' qu'un joueur lambda) et certains sont même sponsorisés voir rémunérés (pas trop de problème pour mettre un peu plus dans leur PC). Du coup, plutôt que de réduire certaines options graphiques qui, pour moi, font partie du jeu, il me semblerait probablement mieux que tout le monde joue en "High" afin d'être tous au même niveau.

                                                          5° - Comme déjà dit : "les temps changent"... mais pas toujours dans le bon sens malheureusement et, en effet, même si il y a une p'tite baisse depuis le début de l'année, les prix des composants/périphériques ont pas mal augmenté ces dernières années. On n'y peut malheureusement pas grand chose et se baser sur les prix des pièces datant de l'époque où tu as pris ta config' ne veut plus dire grand chose aujourd'hui.

                                                          • Partager sur Facebook
                                                          • Partager sur Twitter
                                                            15 mars 2019 à 18:50:24

                                                            3. OK après je peux ptet pousser plus loin les FPS, c'est juste que j'ai limité le framerate à 60FPS max. Ca doit jouer.

                                                            4. C'est facile de surveiller qu'un joueur pro est bien en High lorsqu'il est en compétition dans un stade. Mais la majeur partie du temps ils se battent depuis chez eux ou dans leur gaming house. Comment surveiller qu'un joueur est en High? Et même si les devs permettent de forcer des options minimales pendant les compétitions par exemple, comment faire si l'on s’entraîne sur le ladder publique? Ça me parait compliqué de faire de la surveillance d'option au niveau pro sans impacter les autres utilisateurs. Et puis c'est pas franchement dramatique je pense. De toutes façons les commentateur surveillent le match en ultra donc le spectateur n'est pas lésé (sauf sur twitch lorsqu'un joueur stream directement depuis son PC). Concernant le fait que ce sont des passionné, je pense que c'est comme les sportifs de haut niveau: on pense qu'il s'amusent et qu'ils ont une vie de rève, mais eux, chaque fois qu'il disputent un match, ils jouent leur place et leur salaire. C'est un stress énorme je pense et rien n'est laissé au hasard. Quand on voit que certain PGM se droguent pour améliorer leur attention et leurs réflexes...

                                                            5. https://www.youtube.com/watch?v=rWKGrS8M-DA ;)

                                                            • Partager sur Facebook
                                                            • Partager sur Twitter
                                                              Staff 16 mars 2019 à 14:57:34

                                                              3° - Il me semblerait intéressant de savoir jusqu'à combien de fps tu arrives à monter avec ton PC.

                                                              4° - Je pense qu'il devrait être possible de vérifier avec quelles options graphiques joue chaque joueur professionnel si une plateforme dédiée était créée (ça serait peut-être même possible sans via Steam et ses concurrents). Ca pourrait permettre de jouer avec d'autres personnes jouant dans "exactement" les mêmes conditions et, pour les compétitions, de fixer un cadre afin de mettre tout le monde au même niveau.

                                                              Quant à l'histoire du fait que ce type de joueurs est généralement composé de passionnés, je ne voulais absolument pas dire qu'ils s'amusaient mais que ce sont des personnes qui, parce qu'ils sont passionnés (mais aussi parce que c'est leur métier/leur gagne pain), étaient généralement prêt à mettre un peu plus dans leur config' et qui, normalement, avait donc un PC un peu plus performant que le joueur lambda.

                                                              5° - Tout à fait… mais, malheureusement, ça se passe rarement comme ça…

                                                              • Partager sur Facebook
                                                              • Partager sur Twitter

                                                              [UPGRADE] CM + RAM + CPU + GPU

                                                              × Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
                                                              × Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
                                                              • Editeur
                                                              • Markdown