Partage
  • Partager sur Facebook
  • Partager sur Twitter

Quel écran 144hz gsync choisir?+ débat 60 vs 144hz

    7 janvier 2016 à 20:29:10

    Bonjour, je voudrais savoir quel est l'écran gsync avec le meilleur rapport qualité/prix du moment, je sais qu'à une époque Cybers@m recommandait le aoc g2460pg, est-ce toujours vers ce modèle qu'il faut s'orienter malgré certains retours utilisateurs négatifs ? Sinon quelle est votre opinion sur le gaming à 144hz ? Je sais que les écrans 60hz avec une dalle IPS comme le dell u2414h sont moins chers et ils ont l'avantage d'offrir une qualité d'image infiniment meilleure qu'un écran 144hz qui sont très majoritairement équipés de dalles TN mais personnellement je joue actuellement sur un écran 120hz (acer gd245hq) et j'avoue énormément apprécier la "fluidité" du gaming en 120hz. Je me vois mal revenir sur un écran@60hz car je trouve que le rendu "saccade", après je suis sûr que les plus scientifiques d'entre vous me diront que l'oeil humain ne perçoit plus aucune différence au delà de 24 images par seconde mais je vous assure qu'il y'en a une... En bref, je suis en proie à un dilemne. D'un côté j'aimerais bien gagner en qualité d'image mais d'un autre côté ça m'ennuie de sacrifier la fluidité :/

    Quel est votre opinion sur le gaming 60hz vs 144hz ?

    Merci d'avance pour vos réponses,

    Cordialement.

    -
    Edité par glonglon 7 janvier 2016 à 20:30:11

    • Partager sur Facebook
    • Partager sur Twitter
      7 janvier 2016 à 21:08:17

      "Quel est votre opinion sur le gaming 60hz vs 144hz ?"

      Ba...Comme tu l'as dit : 24fps, c'est l'estimation moyenne de perception humaine optique max. Du coup, 60fps pour être correct, c'est suffisant.

      Après, c'est sûr que les images "semblent plus précises" sur des écrans à refresh rapide (j'ai vu des films sur une TV plate 600Hz...On a l'impression que le film "joue en accéléré"...Juste par le fait qu'a 600Hz, il n'y a "aucune rémanence perceptible possible")...Donc si t'as les moyens de te payer du matos @144Hz, why not? :) En plus ça rentabilisera d'autant plus ton matos de gamer s'il est balèze...Histoire de faire cracher des FPS à ta CG qui pourront être un peu plus efficacement exploités que si tu avais un écran en 60Hz (cracher 400FPS sur un écran à 60, c'est un peu..."lol"...d'ailleurs, chose curieuse, avec G-Sync & co, nVidia promet une expérience de jeu visuellement inédite en synchronisant le swap de tampon de la CG au refresh de l'écran...Sauf qu'a la base, si les gens du logiciel s'étaient penchés sur le problème qui rend l'activation de la V-Sync inutilisable, on n'aurait sans doute pas besoin de claquer une fortune et demie dans des écrans synchronisés matériellement).

      • Partager sur Facebook
      • Partager sur Twitter
        8 janvier 2016 à 10:30:27

        Salut je suis joueur de fps et je suis passé sur un BenQ 2430t cet été, auparavant j’étais sur un ancien écran samsung 60 Hz, je tiens à te dire que jamais je reviendrai sur du 60 Hz, le changement est incroyable sur des jeux telle que csgo.

        J'ai entendu comme quoi le G-SYNC apporterait un changement très important également, mais il fallait déjà rajouter 200€ sur 375€ (à ce prix, je m’achète un TV 4K :D) si tu as le budget c'est évident que je te conseille ce BenQ sinon ce Asus ROG m'a l'air fort intéressant.

        J’espère que j'ai pu t'aider dans tes recherches

        • Partager sur Facebook
        • Partager sur Twitter
          8 janvier 2016 à 15:16:22

          Ba...Comme tu l'as dit : 24fps, c'est l'estimation moyenne de perception humaine optique max. Du coup, 60fps pour être correct, c'est suffisant.

          euh... J'aimerais bien savoir d'ou tu tiens cette info. 24, c'est un chiffre qui a été choisi pour le cinéma afin de pouvoir inclure la bande sonore sur la pédicule alors que 18 ips suffisaient pour avoir une impression de fluidité.

          Le fait qu'une 20aine de FPS suffisent pour un film vient du fait que l'image est floue tout simplement, alors qu'elle est nette dans un jeu, ce qui donne une impression saccadée parfaitement perceptible en dessous de 30fps.

          • Partager sur Facebook
          • Partager sur Twitter
          Anonyme
            8 janvier 2016 à 15:39:27

            "Quelle est donc le framerate idéal dans un jeu vidéo ? Si l'on oublie la fréquence de rafraîchissement de nos écrans, la sensibilité de nos souris, le nombre d'événements effectivement calculés (et non affichés) par le moteur 3D, on peut conclure que plus il y a d'images, mieux c'est."

            Source :  http://www.nofrag.com/2003/nov/24/8629/

            -
            Edité par Anonyme 8 janvier 2016 à 15:43:26

            • Partager sur Facebook
            • Partager sur Twitter
              8 janvier 2016 à 17:17:52

              "euh... J'aimerais bien savoir d'ou tu tiens cette info. 24, c'est un chiffre qui a été choisi pour le cinéma afin de pouvoir inclure la bande sonore sur la pédicule alors que 18 ips suffisaient pour avoir une impression de fluidité."

              De la sagesse populaire? ^^ . [A noter au passage que l'OP dispose vraisemblablement de la même "info" que moi ^^ ]

              "Source :  http://www.nofrag.com/2003/nov/24/8629/"

              Marrant ^^ .

              • Partager sur Facebook
              • Partager sur Twitter
                8 janvier 2016 à 18:24:59

                Salut :)

                Déjà, je n'ai encore jamais pu tester d'écran @144Hz mais il semblerait effectivement que, dans les jeux, ce soit ce qui se fait de mieux actuellement et, comme le dit lulu7712, une fois qu'on y a goûté, il semblerait difficile de revenir sur des modèles @60Hz seulement.

                Après, pour l'histoire des fps en jeu, il est vivement conseillé de ne pas descendre sous les 30fps si on veut avoir quelque chose de fluide mais 60fps de moyenne sont généralement préférables pour ne pas trop ressentir les baisses de fps dans certaines parties pas mal chargées : en gros, comme le dit le test de NoFrag, plus il y a de fps, mieux c'est... au-delà de 120fps, pas sûr qu'on puisse voir la différence.

                Aussi, il faut savoir que jouer @144Hz revient à afficher 144fps en jeu, ce qui demande quelque chose de bien plus performant (et donc de bien plus cher) que pour jouer @60Hz : CrossFire/SLI quasiment obligatoire.

                Enfin, par rapport à l'écran, en 24" Full HD (1.920x1.080), l'AOC G2460PG serait probablement toujours le meilleur choix mais, étant équipé d'une dalle TN, aujourd'hui, si on veut jouer correctement avec une telle fréquence de rafraichissement, il me semblerait préférable de passer aux modèles de 27" en Quad HD (2.560x1.440) comme l'ACER Predator XB270HU qui, eux, sont équipées de dalles IPS. Par contre, le prix de l'écran et de l'unité centrale pour en profiter est nettement plus élevé.

                Par conséquent, aujourd'hui, il me semblerait préférable de rester sur un très bon écran @60Hz tel que le DELL UltraSharp U2414H (en Anglais) et d'attendre encore un peu que les prix baissent pour passer à ceux @144Hz... d'ici-là, on sera probablement passer aux modèles Ultra HD (3.840x2.160). En gros, c'est pas la meilleure période pour changer d'écran car on est en pleine transition.

                • Partager sur Facebook
                • Partager sur Twitter

                Tuto : Apprenez à monter votre ordinateurSites perso : CyberS@m (nouveau design)

                Anonyme
                  9 janvier 2016 à 1:49:09

                  Joué en 144hz en Full HD reste possible avec une bonne 980 Ti ou SLI avec deux 970. Mais la Quad HD en 144hz est quasiment pas possible si on ne veut pas mettre 3000/4000€ ...

                  -
                  Edité par Anonyme 9 janvier 2016 à 1:49:43

                  • Partager sur Facebook
                  • Partager sur Twitter
                    9 janvier 2016 à 20:32:27

                    @Nisnor: ton lien semble dire l'inverse de ce que tu avances. Peut etre que l'on ne s'est pas compris ou peut être que tu as révisé tes propos depuis que tu as lu le lien NoFrag, mais j'y lis partout que 24fps n'est pas suffisant pour donner une impression de fluidité même au cinéma pour peu que les images soient nettes et non fluides.

                    @robintou: Après pour ce qui est de cracher du 144 fps sur des jeux récents en 4K c'est totalement impossible ou alors il faudra faire un SLI de 980 ti en plus de baisser les graphisme au mini et d'avoir un CPU derniere génération OC à fond en espérant qu'il n'y ait pas trop d'IA et autre taches CPU à gérer (ou bien tu joues à Quake 3 :D)

                    cf ce lien

                    Une 970 peut faire tourner à 30-40fps les jeux récents sur un écran wQHD (2560x1440) avec toutes les options graphique a fond sauf l'AA (je parle en connaissance de cause puisque je dispose d'une 970 et d'un écran WQHD)

                    Fred

                    -
                    Edité par fred1988 9 janvier 2016 à 20:36:44

                    • Partager sur Facebook
                    • Partager sur Twitter
                    Anonyme
                      9 janvier 2016 à 22:36:30

                      Je suis d'accord avec toi, en plus les écrans 8k devrait commencer à sortir en 2016 par LG... La portabilité en 4k n'est même pas du tout finis ...

                      • Partager sur Facebook
                      • Partager sur Twitter
                        10 janvier 2016 à 0:19:03

                        Il est effectivement totalement impossible de jouer en Ultra HD (3.840x2.160) @144Hz actuellement... de toute façon, il n'y a encore aucun écran de ce type (les meilleurs montent @60Hz maximum).

                        Par contre, jouer en Quad HD (2.560x1.440) @144Hz est tout à fait possible avec 2 nVIDIA GeFORCE GTX 980 Ti en SLI... c'est bien plus le prix total de la config' (écran compris) qui rend la chose très difficile à réaliser.

                        Quant à jouer en Full HD (1.920x1.080) @144Hz, là, 2 nVIDIA GeFORCE GTX 970 en SLI seraient le meilleur choix car plus performantes qu'une seule nVIDIA GeFORCE GTX 980 Ti... c'est plus l'écran qui poserait "problème" car de moins bonne qualité du fait de sa dalle TN.

                        PS : le 8K, pour le moment, ça reste du domaine des prototypes et ça semble plus destiné aux TV dans un 1er temps... on a déjà du mal à jouer correctement en Ultra HD (3.840x2.160) alors en 8K...

                        • Partager sur Facebook
                        • Partager sur Twitter

                        Tuto : Apprenez à monter votre ordinateurSites perso : CyberS@m (nouveau design)

                          10 janvier 2016 à 1:19:00

                          Merci pour vos réponses c'était très instructif :)

                          Au sujet de l'écran 144hz, l'Acer en IPS a l'air d'être excellent par contre le prix de 600€ calme bien ^^. Cybersam, c'est quoi le meilleur écran 144hz gsync pour un budget dans les 400€ ?

                          CyberS@m a écrit:

                          Quant à jouer en Full HD (1.920x1.080) @144Hz, là, 2 nVIDIA GeFORCE GTX 970 en SLI seraient le meilleur choix car plus performantes qu'une seule nVIDIA GeFORCE GTX 980 Ti... c'est plus l'écran qui poserait "problème" car de moins bonne qualité du fait de sa dalle TN.



                          Es-tu sûr que deux 970 sont plus performantes qu'une 980 ti ? Je n'arrive pas à trouver de benchs mais je présume que c'est certainement mieux qu'une 980, par contre pour la 980ti j'ai quelques doutes.

                          Et sinon, c'est une solution viable le SLI/crossfireX maintenant ? Par le passé certaines personnes se plaignaient de problèmes de drivers, sans compter que ça tire sur l'alim, ça augmente la température, les nuisances sonores et la charge processeur...d'ailleurs à ce sujet quand on part sur un SLI faut passer sur de l'i7 ou un i5 suffit ? Et quelle puissance d'alim recommandes tu?

                          merci d'avance pour ta réponse.

                          cordialement,

                          glonglon.

                          PS : Sans aucun rapport avec le sujet, c'est quoi le boitier que tu recommandes pour l'overclocking ?

                          -
                          Edité par glonglon 10 janvier 2016 à 1:26:20

                          • Partager sur Facebook
                          • Partager sur Twitter
                            10 janvier 2016 à 5:49:52

                            Heu... bien franchement, je connais aucun écran de qualité équivalente à l'ACER Predator XB270HU pour ~400€ et dans une taille inférieure : c'est pour cela que, pour le moment, il me semblerait préférable de rester sur un très bon écran de 23"/24" @60Hz si le budget est trop faible.

                            Quant au CrossFire/SLI, il y a toujours des problèmes de drivers (ça semble s'être tout de même pas mal amélioré) et de jeux pas compatibles avec ce type de configuration et c'est pour cette raison que certains préfèrent rester sur une seule nVIDIA GeFORCE GTX 980 Ti que de prendre 2 GeFORCE GTX 970 en SLI pourtant plus performantes (cf. ce comparatif)... dans les 2 cas, un INTEL Core i7 67xx avec un kit de 2x8Go et quelque chose de très bien ventilé (avec un CrossFire/SLI) me sembleraient conseillés.

                            Enfin, pour ce qui est de l'alim', sans overclocking, avec une seule nVIDIA GeFORCE GTX 980 Ti, il faudrait prévoir 600W maximum et avec 2 GeFORCE GTX 970 en SLI (il faudrait des modèles basés sur le design de référence car, étant généralement totalement carénés, ils n'envoient pas ou beaucoup moins d'air chaud à l'intérieur du boîtier), ~650W.

                            PS : en cas d'overclocking, le meilleur choix de boîtier serait, à mon avis, un FRACTAL DESIGN Arc Midi R2.

                            • Partager sur Facebook
                            • Partager sur Twitter

                            Tuto : Apprenez à monter votre ordinateurSites perso : CyberS@m (nouveau design)

                              10 janvier 2016 à 11:01:31

                              "@Nisnor: ton lien semble dire l'inverse de ce que tu avances."

                              Heuuuuu....je n'ai pas donné ce lien...C'était un copié-collé du post du dessus o_O .

                              D'autre part, la réponse concernant ta suspicion tient dans la ligne juste au dessus de ce que tu pensais être une source de ma part...Autrement dit : J'ai cherché vite fait et on ne trouve pas grand chose concernant cette estimation. J'imagine donc que c'est un truc issu de la "sagesse populaire"...vrai ou faux, je n'en sais fichtrement rien puisque je n'ai jamais pris le temps de vérifier. Je n'ai jamais trop cherché à remettre en question cette histoire des 12FPS de moyenne...Puisque si on utilise un générateur de fréquence et qu'on fait clignoter une LED, il y a bien un moment où on ne perçoit plus de clignotement (en restant fixe) ...."comme si la vision humaine avait une limite de vitesse de capture". En soit, ça tenait donc la route. Du reste, s'il s'avérait que la vision humaine soit effectivement limitée en vitesse de capture (ce qui, d'une façon ou d'une autre, est le cas, puisque j'ai vu passer des estimations de délai moyen pour percevoir une image...qui dit implication du temps, dit aussi notion de fréquence et tout ce qui en découle, en plus de toutes les problématiques liées au fait que le capteur n'est pas electronique mais biologique) à 12IPS, le choix des vitesses de refresh telle qu'on les connait pourrait aussi trouver leur justification là dedans : Une grande partie des fréquences de refresh sont proche (et souvent égales...60, 120, 144, 48, 24) des harmoniques de 12Hz.

                              Mais ne prend pas la mouche de suite : Ce ne sont que des suggestions basées sur "un truc trop vieux" ^^

                              "[...]peut être que tu as révisé tes propos depuis que tu as lu le lien NoFrag, mais j'y lis partout que 24fps n'est pas suffisant pour donner une impression de fluidité même au cinéma pour peu que les images soient nettes et non fluides."

                              Effectivement...La science évolue tellement vite que ça me semble complexe d'etre au courant d'absolument toutes les avancées dans tous les domaines.

                              J'étais resté sur cette histoire de 12FPS en estimation...Mais ça remonte à il y a plus de 10 ans ^^ .

                              -
                              Edité par Nisnor 10 janvier 2016 à 11:03:28

                              • Partager sur Facebook
                              • Partager sur Twitter
                                10 janvier 2016 à 14:17:36

                                Bonjour,

                                Il y a une question qui n'est pas mis sur la table : Le Budget que tu as pour cette achat ?

                                Personnellement, je cherche 2 écran 27" pour faire du jeu (str, fps principalement) et du webdesign + film, mais aucun ne répond actuellement à mes besoins.

                                Alors pour finir, es ce qu'il ne sera pas judicieux d'attendre une baisse des écrans 4K en 27" et surtout, surtout des cartes graphique qui ne te coute pas 1 mois de salaire pour un affichage correcte des FPS.

                                Mon Constat, pour une recherche sur le 3eme trimestre 2015, c'est qu'en 2016, il va y avoir de l’innovation au niveau des écrans et par conséquents des baisses de prix sur les techno telle que les dalles IPS qui ne seront pas OLED ...

                                Pour moi, le 120, 144Hz c'est un mauvais investissement si on n'utilise pas la 3D. Je préfère investir dans une définition plus grande (qui n'a pas vraiment évolué depuis ces dernière années malgrée une évolution de la taille des écrans) avec une dalle qui a une bonne lumière, de la réactivité, des couleurs juste.

                                -
                                Edité par Sunwo 10 janvier 2016 à 14:28:27

                                • Partager sur Facebook
                                • Partager sur Twitter
                                  11 janvier 2016 à 10:27:26

                                  S'il vous plaît, arrêtez de parler de 4k, c'est une étape de transition entre le full Hd et la 8 k, pour rappel, nous avons entendu parlez pour la première fois de la 4k le 19 octobre 2012, alors que l'on connaît la 8k depuis 2008, sauf qu'à l'heure actuelle rien ne permet de faire tourné cela sur un ordinateur ou le diffuser sur une télévision. Avec l'arrivée des CPU 14 NM, c'est certainement l'avancer majeur pour la 8k mais pour l'heure rien de concret, mais je m’inquiète plus pour la partie graphique, car actuellement même les cartes bi-processeurs ont plus ou moins du mal pour la 4k 60Hz alors pour la 8k .....

                                  Second problème pour moi la taille des écrans, pour que la 4k soit au maximum exploité, c'est au minimum 48" ce n'est pas sur nos écrans de 24 voire 27" que l'on aurait l'utilité, le but étant qu'un ordinateur ne tourne pas sur une télévision :p

                                  -
                                  Edité par lulu7712 11 janvier 2016 à 10:27:38

                                  • Partager sur Facebook
                                  • Partager sur Twitter
                                    11 janvier 2016 à 11:30:42

                                    "S'il vous plaît, arrêtez de parler de 4k, c'est une étape de transition entre le full Hd et la 8 k"

                                    On peut le voir comme ça...

                                    On peut aussi le voir comme étant une résolution intermédiaire entre le FHD et le 8K. Et puis, aujourd'hui, les écrans 8K se comptent sur les doigts d'une main (et encore, il me semble que seul LG à fait l'annonce d'une TV aux dimensions démesurées de 98" en 8K).

                                    C'est bien gentil de dire que la 4K c'est transitoire, un attrape-nigaud, toussa toussa...Mais en attendant, "c'est ce qu'il y a de plus accessible en résolution > FHD".

                                    Si on part du principe que c'est transitoire, on peut aussi cracher d'entrée de jeu sur le 8K, qui, quand elle en sera au stade de la 4K aujourd'hui (à savoir : Des écrans à droite à gauche, à un tarif à cheval entre le "abordable vis-à-vis de ce que c'est" et le "toujours trop cher par rapport à ce que ça apporte réellement"), aura déjà son successeur 10K, 12K, 16K, 24K ou je ne sais quoi d'autre...La course aux pixels sur les écrans est déjà engagée, elle n'est - à mon sens - pas prête de s'arrêter (un peu comme le fut un temps la course aux GHz sur les CPU puis celle aux nombres de coeurs physique et maintenant....la course à la consommation énergétique). Le truc, en tant que "consommateur avisé", c'est aussi de savoir s'arrêter à une étape du processus...Si l'OP décide de le faire maintenant sur la 4K, je doute que lui dire que c'est "une erreur car transitoire" soit très intéressant (chaque étape étant systématiquement la transition entre 2, société de consommation oblige, l'évolution continue et la nécessité de provoquer le besoin, même quand c'est inutile est impératif).

                                    "Second problème pour moi la taille des écrans, pour que la 4k soit au maximum exploité, c'est au minimum 48" ce n'est pas sur nos écrans de 24 voire 27" que l'on aurait l'utilité"

                                    Là aussi, ça semble très subjectif comme "conseil".

                                    A dimension de dalle équivalente, plus le nombre de pixels augmentera, plus l'image aura des chances d'être fine, douce et par conséquent "agréable", sans avoir à activer des options de lissage des rendus.

                                    Edit : Tient, c'est marrant que nous suggère d'arrêter de parler de 4K...A relire le fil de discussion, tu es le premier à y avoir fait mention : "J'ai entendu comme quoi le G-SYNC apporterait un changement très important également, mais il fallait déjà rajouter 200€ sur 375€ (à ce prix, je m’achète un TV 4K :D)" XD

                                    -
                                    Edité par Nisnor 11 janvier 2016 à 11:33:46

                                    • Partager sur Facebook
                                    • Partager sur Twitter
                                      11 janvier 2016 à 12:44:38

                                      La 4K ou même xK ce n'est pas que pour les films et les jeux ...

                                      Quand vous avez un écran de 27" qui affiche autant de pixel q'un écran de 20" ou q'un écran de 13" qui affiche plus de pixel qu'un écran de 27", es ce que vous trouvez cela normale ?

                                      Moi non, pourquoi ? parce que avec l'augmentation de la taille de l'écran, il y doit y avoir forcément une augmentation de la résolution et cette résolution qui te permet d'avoir un bureau plus grand et donc un plus grand espace de travail en plus de l'affichage pour tout ce qui est ludique, je pense notamment à toute cette génération d'écran tube cathodique qui avait une logique certaine.

                                      En cela je rejoinds Nisnor.

                                      Donc Budget prévu et es ce un achat du style mon écran est défectueux, je dois le changer ou es ce un achat par pure "geek attitude" afin de définir l'écran qui sera le mieux pour toi.

                                      -
                                      Edité par Sunwo 11 janvier 2016 à 13:40:58

                                      • Partager sur Facebook
                                      • Partager sur Twitter
                                        11 janvier 2016 à 12:51:09

                                        Bonjour Nisnor: cette histoire de LED dont on ne distingue plus le clignotement est liée en grande partie à la rémanence rétinienne. De la meme facon que si tu flash une pièce dans le noire tu vas distinguer très nettement la pièce alors que le flash n'aura duré qu' 1/1000e de seconde.

                                        Après je me questionne: le fait de regarder une roue de voiture tourner dans le mauvais sens, à la lumière du jour, signifie que le cerveau est dépassé et que la roue tourne trop vite pour qu'il en ait une interpretation correcte. Si on regarde une roue (de carrosse par exemple dans un film) ce phénomène est amplifié et se remarque à des vitesse très faibles (2-3m après le démarrage du carosse). Cela est du à la fréquence à laquelle a été tourné le film. Ici l'explication de ce phénomène: https://www.youtube.com/watch?v=6fbVi-Yv-1Y

                                        Mais si le fait de capturer des images dans un film tourné en 24ips amplifie ce phénomène, mais que je peux quand meme voir le même résultat à l'oeil nu, alors cela devrait signifier que l’œil humain a quand même une limite, même si elle est beaucoup plus haute non? D'ailleurs est ce que la vitesse à laquelle une roue "s'arrete de tourner" pour mon oeil, est la même que la tienne?

                                        En esperant que qqun aura compris le raisonnement que je viens de tenir ^^

                                        • Partager sur Facebook
                                        • Partager sur Twitter
                                          11 janvier 2016 à 13:18:17

                                          "alors cela devrait signifier que l’œil humain a quand même une limite, même si elle est beaucoup plus haute non?"

                                          Wiki :

                                          La vision n'est ni instantanée ni fluide, mais elle se fait de manière ponctuelle et rapide (de l'ordre du 1/40 de seconde)

                                          ...A l'inverse d'un système linéaire comme en électronique analogique donc ^^.

                                          Est-ce qu'il y a une limite? A mon sens, oui, c'est certain (pour tout un tas de raisons...ne serait-ce que, par exemple, le temps que met l’influx nerveux à transiter à travers le nerf optique pour atteindre le cerveau, c'est pas instantané...Tout comme le temps que mettra le cerveau à recomposer l'image d'ailleurs).

                                          De quel ordre est-il? Aucune idée...Je m'étais laissé dire "12IPS"...Mais je ne sais pas si c'est vrai ou pas (wiki dit 1/40eme de seconde, soit 40IPS si je me plante pas...Il y a peut-être d'autres sources qui diront autre chose).

                                          Comment le mesurer? Aucune idée également. Il y a plein de trucs sur le web à ce sujet, je ne les ais pas lu...

                                          "D'ailleurs est ce que la vitesse à laquelle une roue "s'arrete de tourner" pour mon oeil, est la même que la tienne?"

                                          Je suis a peu près sûr que ça peut pas être garanti (ça peut arriver mais seul un test saurait le dire)...Chaque métabolisme diffère légèrement de son voisin...Tous ces chiffres ne restent que des estimations moyennes, en aucun cas une vérité absolue.

                                          -
                                          Edité par Nisnor 11 janvier 2016 à 13:19:52

                                          • Partager sur Facebook
                                          • Partager sur Twitter
                                            11 janvier 2016 à 14:39:27

                                            la encore je ne saurais pas interpréter la phrase de Wikipedia. Je ne pense pas que l'on parle de capture instantané de ce qu'il y a devant moi à un instant T, car si un flash, pour en reprendre l'exemple, ne dure que 1/1000e de seconde, alors j'aurais toutes les chances de ne pas le voir. Hors je le vois à chaque fois. Donc si l'oeil ne capture pas un instantané toutes les 1/40e de sec, je dirais plus que cela signifie que le cerveau superpose tout ce qu'il voit pendant 1/40e de sec puis l'envoie au cerveau pour traitement. L'influx nerveux dont tu parles ici représenterait le délai avant que mon cerveau perçoive ce que l’œil capte donc ça ne devrait pas entrer en ligne de compte.

                                            Bref je pense qu'on s'éloigne à mort du sujet là. Je m'en excuse d'ailleurs au près de l'auteur

                                            • Partager sur Facebook
                                            • Partager sur Twitter
                                              11 janvier 2016 à 15:32:30

                                              Juste pour répondre à @Nisnor, je suis quasiment certain que la 8k sera LA résolution d'ici 2025 cela fait un moment que l'on en parle (bien avant la 4k) c'est pour cela, j'estime que la 4k est transitoire (elle permet de faire patienter les gens d'ici à la 8k et au passage vendre).

                                              Juste une question, tu vois la différence entre 500 et 600 FPS ? Moi personnellement non, arrivée à une certaine taille d'écran nous ne verrons plus la différence (la vision parfaite étant ce que ton œil peut voir), c'est pour cela que je dis que la 4k sur un écran 24" n'a clairement aucun intérêt comparé à la technologie OLED qui elle peut s’appliquer sur toutes les tailles pour une qualité sur les contraste et les couleurs tout aussi importante.

                                              Pour info ma phrase était une boutade :D

                                              Pour répondre à @Sunwo j'ai une seul chose à dire vivement le bureau windows en 4k <troll/> Ah est aussi tu as essayé un écran 144Hz avant de dire que c'est un mauvais investissement ? Clairement un écran avec tout ce que tu veut mais en 60Hz tu as vraiment l'impression qu'il saccade vraiment par rapport à un 144Hz.

                                              -
                                              Edité par lulu7712 11 janvier 2016 à 15:36:44

                                              • Partager sur Facebook
                                              • Partager sur Twitter
                                                11 janvier 2016 à 16:33:21

                                                Heu... attention à ne pas tout mélanger : taille et type de la dalle, définition native et réactivité.

                                                Si il est clair que pour avoir quelque chose de plus ou moins équivalent à ce qu'on a en ce moment (au niveau du pitch) avec les écrans de 24" Full HD (1.920x1.080) qui sont le standard actuel, il faudrait que les modèles Ultra HD (3.840x2.160) fassent 48", une telle définition sur un modèle de 24" serait tout de même intéressante car ça limiterait pas mal l'utilité de l'AntiAliasing (qui consomme pas mal de ressources et peut, parfois, engendrer du flou) dans les jeux et ça permettrait aussi d'avoir des images/vidéos avec un très bon piqué et donc une meilleure netteté.

                                                Par contre, il faudrait pour ça que les cartes graphiques puissent suivre (dans les jeux... ce n'est pas encore le cas car il faut presque obligatoirement passer par du CrossFire/SLI) et que les interfaces des OS soient adaptés pour que tout ne devienne pas trop p'tit (ça s'améliore mais c'est pas encore ça... il y a quelque temps, il était question de passer au vectoriel à la place du bitmap afin de pouvoir modifier le "zoom" des icônes, textes, etc. sans que ça pixellise mais ça fait un moment qu'il n'y a plus aucune info sur le sujet).

                                                De plus, la technologie de la dalle (IPS, OLED, TN, VA, etc.) n'a pas grand chose à voir là-dedans car elle joue surtout sur la qualité d'affichage au niveau du taux de contraste, de la luminosité et de la réactivité.

                                                Quant au 8K (7.680x4.320), comme déjà indiqué, ça n'est pas pour tout de suite car, actuellement, les équipements adaptés (uniquement des TV) ne sont que des produits de démonstration, il serait totalement impossible de correctement jouer dans une telle définition et il n'y a pratiquement aucune vidéo à ce format (uniquement quelques retransmissions sportives et, si je me rappel bien, uniquement au Japon lors d'essais)... avant que ça arrive, on aura une (probablement très courte) transition en Quad HD (2.560x1.440) avant que l'Ultra HD (3.840x2.160) devienne la norme puis il devrait y avoir encore une transition (plus ou moins longue) en 5K (5.120x2.880) avant que le 8K (7.680x4.320) devienne à son tour le standard... et il cèdera lui-aussi sa place à des définitions encore plus élevées plus tard.

                                                Aussi, il y a également une donnée à ne pas oublier : le prix... une technologie devient un standard quand son prix commence à être abordable et c'est encore loin d'être le cas pour l'Ultra HD (3.840x2.160) sur PC (sans parler de la qualité, on commence à voir des TV avec cette définition native à des prix pas trop élevés et les lecteurs Blu-ray Ultra HD ne devraient plus tarder... sans compter les vidéos en streaming à ce format sur Netflix & Cie).

                                                Enfin, par rapport à la fréquence de rafraichissement, si il semble y avoir un réel gain de qualité d'affichage dans les jeux, le problème est que le prix demandé pour profiter de 144Hz dans les jeux reste encore trop élevé et, à moins que ça devienne la norme (ce qui n'est vraiment pas gagné vue ce que demanderait de jouer en Ultra HD (3.840x2.160) @144Hz... impossible actuellement), 60Hz devrait rester le standard pendant encore longtemps.

                                                • Partager sur Facebook
                                                • Partager sur Twitter

                                                Tuto : Apprenez à monter votre ordinateurSites perso : CyberS@m (nouveau design)

                                                  11 janvier 2016 à 16:37:17

                                                  Je crois que la situation est bien résumée merci @CyberS@m
                                                  • Partager sur Facebook
                                                  • Partager sur Twitter
                                                    11 janvier 2016 à 17:18:50

                                                    "Heu... attention à ne pas tout mélanger : taille et type de la dalle, définition native et réactivité."

                                                    Je ne sais pas trop si je suis rentré dans ce melting-pot....Mais quand je vois ta réponse @lulu7712, il est clair que tu es en plein dedans ^^

                                                    "Juste pour répondre à @Nisnor, je suis quasiment certain que la 8k sera LA résolution d'ici 2025 cela fait un moment que l'on en parle (bien avant la 4k) c'est pour cela, j'estime que la 4k est transitoire (elle permet de faire patienter les gens d'ici à la 8k et au passage vendre)."

                                                    Oui...Au même titre que les graphistes de métier bossent (souvent) avec des résolutions largement supérieures à 8K avant de les transmettre aux imprimeurs pour imprimer les affiches publicitaire qu'on croise sur les bords de route (pour imprimer des panneaux pour la boite, on nous avait demandé des images d'une résolution spécifique, de l'ordre de 24K*18K ou quelque chose du style)...

                                                    8K, ce n'est pas (en tous cas, pas plus que la 4K) LA résolution...C'est juste une étape...Exactement comme la 4K...Et c'est également ce que relève CyberSam : "[...] avant que le 8K (7.680x4.320) devienne à son tour le standard... et il cèdera lui-aussi sa place à des définitions encore plus élevées plus tard."

                                                    "La course aux pixels sur les écrans est déjà engagée, elle n'est - à mon sens - pas prête de s'arrêter"

                                                    "Juste une question, tu vois la différence entre 500 et 600 FPS ? Moi personnellement non, arrivée à une certaine taille d'écran nous ne verrons plus la différence [...]"

                                                    A partir de là, je ne comprends plus rien ^^ . Tu nous fais un mic-mac entre résolution d'écran, vitesse de rafraichissement, surface d'écran (j'imagine qu'indirectement, tu parles du fameux pitch mentionné par CyberSam et auquel je faisais allusion en parlant de netteté d'image sans avoir à activer d'algorithme de lissage) et technologie d'affichage ^^ .

                                                    Quant à l'histoire des 600Hz, je ne l'avais évoqué que pour appuyer le fait que jouer en 144Hz (malgré ce peuvent en dire ceux qui considère que 60Hz c'est la limite supérieure utile) n'est pas totalement dénué d'intérêt.

                                                    -
                                                    Edité par Nisnor 11 janvier 2016 à 17:25:47

                                                    • Partager sur Facebook
                                                    • Partager sur Twitter
                                                      11 janvier 2016 à 17:29:19

                                                      @lulu7712 : Oui, je en ai acheté 1 en urgence, c'est un 24 pouces et impossible de jouer à 144Hz avec ma CG Geforce 760 Donc ce n'est pas un investissement rentable, il faut en plus une carte graphique de haut de gamme et avec les mauvaises pratique que fond les constructeurs, cela n'arrange rien car il faut limite juste aller.

                                                      Donc, un écran 144hz, ou même 120Hz OK, mais la CG te coute le prix d'un PC complet et là, c'est NON au niveau de ma bourse mais aussi du commun des personnes.

                                                      Es ce que les 144hz et tes 144IPS seront utile dans ton quotidient, il faut aussi le rapporter  au nbre d'heure que tu passe devant ton ordinateur et ce que tu en fais.

                                                      Au niveau des JV je suis principalement sur toutes les gros AAA ou les jeux du moment pour testé et prendre plaisir un peu, après quelques ligne de codes bien casse pied.

                                                      -
                                                      Edité par Sunwo 11 janvier 2016 à 17:33:39

                                                      • Partager sur Facebook
                                                      • Partager sur Twitter
                                                        11 janvier 2016 à 17:56:49

                                                        "Donc, un écran 144hz, ou même 120Hz OK, mais la CG te coute le prix d'un PC complet et là, c'est NON au niveau de ma bourse mais aussi du commun des personnes."

                                                        D'un autre côté, "gaming" + "144Hz" = "bourse aisée" à mon sens. Si tu voulais vraiment rester sur du gaming "low-cost", jamais tu n'aurais dû prendre un écran 144Hz (ou même 120Hz en fait).

                                                        Partant de ce principe, il me semble logique que si tu es prêt à investir dans un écran en 144Hz, tu as aussi prévu de quoi aligner les ronds pour avoir accès à du 980 Ti et/ou un (Bi|Tri|Quad)SLi d'autre carte moyen-gamme (type 960/970)...

                                                        -
                                                        Edité par Nisnor 11 janvier 2016 à 17:58:55

                                                        • Partager sur Facebook
                                                        • Partager sur Twitter
                                                        Anonyme
                                                          12 janvier 2016 à 9:10:42

                                                          @Sunwo ça m'étonne que tu ne tournes pas en 144/120hz avec un GTX 760 car tu as indiqué faire uniquement du STR(Starcraft/AOE?) ou FPS(CS/COD j'imagine). Ces jeux ne demandent pas énormément de ressources !

                                                          L'investissement d'un 144Hz juste pour le confort n'est pas rentable je pense, mais pour l'E-sport, ça peut jouer à son avantage, notamment dans CS:GO par exemple.

                                                          -
                                                          Edité par Anonyme 12 janvier 2016 à 12:33:32

                                                          • Partager sur Facebook
                                                          • Partager sur Twitter
                                                            12 janvier 2016 à 10:29:05

                                                            "Juste une question, tu vois la différence entre 500 et 600 FPS ? Moi personnellement non, arrivée à une certaine taille d'écran nous ne verrons plus la différence"

                                                            Cette phrase avait simplement pour but que l’œil à des limites est arrivé à un certain nombre de pixels (pour tout ce qui est dû - de 20"), il ne fera plus la différence, je vais utiliser une autre image, tu verrais la différence entre une fusée qui va à 1000 ou 2000 km/h devant toi ? Ou alors tu arrives à voir combien de tr/s les hélices d'un hélicoptère tournes et s'il double son nombre de tours ? Je tiens appuyé ce point-là, car je me suis peut-être mal exprimée auparavant, mais c'est en gros ce que je souhaitais dire.

                                                            @Sunwo Clairement je suis 100% d'accord avec @Nisnor sur ce point-là, de plus ce que tu dis et entièrement faux, tu as simplement mal géré ton budget et tu n'as pas ou mal fait tes priorités d'achats, en te lisant j'ai l'impression que tu crois que je suis riche que j'ai une sli 980 Ti. La réponse est non, j'ai une 970 (100€ plus chers que le premier écran 144Hz) dans ton cas, il aurait été préférable de changer ta carte graphique pour une 960 ou 970 suivants ton budget (le 760 commence à très mal vieillir).

                                                            La fatigue oculaire existe et le 144 Hz ainsi que la réduction des lumières bleues joue un rôle important pour moi.

                                                            • Partager sur Facebook
                                                            • Partager sur Twitter
                                                              12 janvier 2016 à 11:00:21

                                                              "Cette phrase avait simplement pour but que l’œil à des limites est arrivé à un certain nombre de pixels (pour tout ce qui est dû - de 20"), il ne fera plus la différence, je vais utiliser une autre image, tu verrais la différence entre une fusée qui va à 1000 ou 2000 km/h devant toi ? Ou alors tu arrives à voir combien de tr/s les hélices d'un hélicoptère tournes et s'il double son nombre de tours ? Je tiens appuyé ce point-là, car je me suis peut-être mal exprimée auparavant, mais c'est en gros ce que je souhaitais dire."

                                                              Mais c'est justement cet amalgame qui est faux. Le taux de refresh et le nombre de pixel n'ont strictement rien à voir l'un avec l'autre et sont totalement indépendant. Je pense aussi que t'es mal exprimé ^^ .

                                                              Quand à "où est la limite de perception de la vision humaine", si tu as suivi, j'ai déjà tenu ce débat avec fred1988 ici même. Je t'invite, du coup, à relire nos échanges sur le sujet ^^ .

                                                              "[...] ainsi que la réduction des lumières bleues joue un rôle important pour moi."

                                                              Puisque tu en parles : Ca me semble mal barré alors pour toi ^^ . A ma connaissance, les LED blanches (qui équipent de plus en plus d'écran plat pour leur faible consommation notamment et aussi pour leur faculté à ne pas avoir de "temps de chauffe" comme les CCFL) sont fabriquées sur la base de LED bleues, par dessus lesquelles on vient rajouter un composé phosphoré pour (version simple) "transformer" le bleu en blanc. Si ce procédé est efficace...Il n'empêche pas que dans ta "lumière blanche" émise par une LED, il y a aussi une partie non négligeable de bleu ^^ .

                                                              -
                                                              Edité par Nisnor 12 janvier 2016 à 11:01:35

                                                              • Partager sur Facebook
                                                              • Partager sur Twitter

                                                              Quel écran 144hz gsync choisir?+ débat 60 vs 144hz

                                                              × Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
                                                              × Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
                                                              • Editeur
                                                              • Markdown