NVIDIA (Italiano)

From ArchWiki
Revision as of 18:28, 9 September 2008 by Simo91 (Talk | contribs) (New page: {{translateme}} Category:Graphics (English) Category:X Server (English) Category:HOWTOs (English) {{i18n_links_start}} {{i18n_entry|English|NVIDIA}} {{i18n_entry|Italiano|NVIDI...)

(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
Jump to: navigation, search

Tango-preferences-desktop-locale.pngThis article or section needs to be translated.Tango-preferences-desktop-locale.png

Notes: please use the first argument of the template to provide more detailed indications. (Discuss in Talk:NVIDIA (Italiano)#)
Template:I18n links start

Template:I18n entry Template:I18n entry Template:I18n entry Template:I18n entry Template:I18n entry Template:I18n links end

Come installare i Driver Nvidia con pacman

Informazioni dal Responsabile del pacchetto tpowa

Il pacchetto è solo per quelle persone che usano un kernel di arch precompilato! È stato testato solo con il kernel 2.6 e xorg. Kernel con utenti multipli: è necessario installare il pacchetto nvidia per ogni utente in più!

Installazione dei driver

Si devono avere i repository extra abilitati per pacman. Uscire dal Server X, senò pacman non riuscirà a completare l'installazione e i driver non funzioneranno! Come root, esegui:

pacman -Sy nvidia (per le nuove schede grafiche)
pacman -Sy nvidia-96xx o pacman -Sy nvidia-71xx (per le vecchie schede grafiche)

Per le schede grafiche più recenti potrebbe essere necessario installare nvidia-beta da AUR, perchè gli attuali driver stabili potrebbero essere adatti. (Guarda /usr/share/doc/nvidia/supported-cards.txt per controllare se la tua scheda video è supportata)

Se si utilizza il kernel -mm, adeguare il comando.

Consultare il README di nvidia per i dettagli su quali schede sono supportate dai driver.

Configurare il Server X

Modificare /etc/X11/XF86Config o il tuo /etc/X11/xorg.conf file di configurazione: Nella sezione "Module" disabilitare: GLcore e DRI

Aggiungere alla sezione "Module"

Load "glx"

Controlla di NON avere questa lina

 Load           "type1"

nella sezione "Module" poiché le recenti versioni di xorg-server non includono il modulo font type1 (completamente sostituito da freetype).

Disabilitare Section DRI completamente:

#Section "DRI"
# Mode 0666
#EndSection

Cambia Driver "nv" o Driver "vesa" in Driver "nvidia". Se esiste disattivare l'opzione Chipset (necessaria solo per i driver nv).

Questo è stato per configurazione base, se avete bisogno di opzioni più avanzate dai un'occhiata a /usr/share/doc/nvidia/README

Puoi anche eseguire:

nvidia-xconfig

Guarda Installare e configurare Xorg.

Abilitare il Composite in Xorg

Fate riferimento al wiki Composite per istruzioni dettagliate.

Modificare il rc.conf file di Arch

Aggiungi nvidia alla sezione MODULES di /etc/rc.conf (non ce ne è bisogno se usi xorg e udev). Richiesto per nvidia-71xx e per il kernel >=2.6.13!

Problemi che potrebbero verificarsi

Specifiche per Nvidia

Xorg: Rimuovere /usr/X11R6 perchè può creare problemi durante l'installazione. Accertarsi anche di aver installato pkgconfig. L'installatore NVIDIA usa pkgconfig per determinare dove sono installati i moduli di Xorg.

Se le prestazione 3D sono scarse dai un occhiata a /usr/lib/libGL.so.1, /usr/lib/libGL.so, /usr/lib/libGLcore.so.1. Forse sono collegati erroneamente a mesa o a qualcos'altro. Prova a reinstallarli con pacman -S nvidia.

Quando si riceve questo messaggio mentre si tenta di avviare un applicazione OpenGL (ad esempio enemy-territory, o glxgears):

Error: Could not open /dev/nvidiactl because the permissions are too
restrictive. Please see the FREQUENTLY ASKED QUESTIONS 
section of /usr/share/doc/NVIDIA_GLX-1.0/README 
for steps to correct.

Aggiungere il proprio utente al gruppo video usando gpasswd -a yourusername video Add yourself to the video group using gpasswd -a yourusername video (non dimenticarti di effettuare un logout/login o di eseguire: source /etc/profile).

Specifiche per Arch

Aggiornamento di GCC: È necessario compilare il modulo con il compilatore che è stato utilizzato per il kernel altrimenti si potrebbe fallire. Un semplice pacman -S nvidia dovrebbe farlo, senò attendere una nuovo rilascio del kernel e rimanere con il vecchio kernel e gcc.

Aggiornamento del kernel: Dopo gli aggiornamenti del kernel sarà necessario reinstallare il driver.

Strumento di configurazione del driver

Il nuovo strumento di configurazione per i driver nvidia è chiamato 'nvidia-settings' Non si deve usarlo per forza perchè è solo un accessorio!
Per ulteriori informazioni circa l'utilizzo, date un'occhiata al seguente documento:
/usr/share/doc/NVIDIA_GLX-1.0/nvidia-settings-user-guide.txt
Per utilizzare questo strumento è necessario installare le gtk2 con "pacman -S gtk2".

NOTA: Se si verificano problemi come blocchi del Server X durante l'esecuzione dello strumento dovete eliminare .nvidia-settings-rc dalla vostra home.

Avvio automatico di Nvidia-Settings: Potrebbe essere utile applicare le opzioni scelte usando nvidia-settings all'avvio, in primo luogo eseguire nvidia-settings almeno una volta al fine di ripristinare le impostazioni. Il file di configurazione è memorizzato in ~/.nvidia-settings-rc. Quindi aggiungere la seguente riga all'avvio del vostro DE:

nvidia-settings --load-config-only

Problemi noti

Se si verificano crash prova a disabilitare l'opzione RenderAccel "True".

Se hai usato una versione differente di gcc per installare i driver nvidia rispetto a quella usata per compilare il kernel guarda come installare il kernel nel metodo tradizionale ma ricordati di eseguire export IGNORE_CC_MISMATCH=1.

Se avete commenti sul pacchetto vi invitiamo a postare qui: http://bbs.archlinux.org/viewtopic.php?t=10692 Se hai un problema con i driver un'occhiata al forum nvidia: http://www.nvnews.net/vbulletin/forumdisplay.php?s=&forumid=14 Per un Changelog vi invitiamo a guardare qui: http://www.nvidia.com/object/linux_display_ia32_1.0-8762.html

Nota: si prega di non modificare la parte sopra senza avermelo prima notificato.

Bad performance after installing new nvidia-driver

If you experience very slow fps rate in compare with older driver first check if You have Direct Rendering turned on. You can do it by:

glxinfo | grep direct

If You get: direct rendering: No then that's your problem. Next check if You have the same versions of glx for the client and server by this:

glxinfo | egrep "glx (vendor|version)"

And if you see different vendors or versions for the client and server run this:

ln -fs /usr/lib/libGL.so.$VER /usr/X11R6/lib/libGL.so
ln -fs /usr/lib/libGL.so.$VER /usr/X11R6/lib/libGL.so.1
ln -fs /usr/lib/libGL.so.$VER /usr/lib/libGL.so.1.2

Where $VER is the version of nvidia package, that you're using. You can check it by nvidia-settings

That's all. Now restart your Xserver and you should have normal acceleration.


Tweaking NVIDIA drivers

Open /etc/X11/xorg.conf or /etc/X11/XFree86Config with your editor of choice and try the following options to improve performance. Not all options may work for your system, try them carefully and always backup your configuration file.

Disable NVIDIA Graphics Logo on startup

Under Device section add the "NoLogo" Option

Option "NoLogo" "True"

Enable hardware acceleration

Under Device section add the "RenderAccel" Option.

Option "RenderAccel" "True"

NOTE: The RenderAccel is enabled by default since drivers version 9746.

Override monitor detection

The "ConnectedMonitor" Option under Device section allows to override the monitor detection when X server starts. This may save a bunch of seconds at start up. The available options are: "CRT" (cathode ray tube), "DFP" (digital flat panel), or "TV" (television).

The following statement force NVIDIA drivers to use DFP monitors.

Option "ConnectedMonitor" "DFP"

NOTE: use "CRT" for all analog 15 pin VGA connections (even if you have a flat panel). "DFP" is intended for DVI digital connections only!

Enable TripleBuffer

Enable the use of triple buffering by adding under Device section the "TripleBuffer" Option.

Option "TripleBuffer" "True"

Use this option if your GPU has plenty of ram (128mb and more) and combined with "Sync to VBlank". You may enable sync to vblank in nvidia-settings.

Enable BackingStore

This option is used to enable the server's support for backing store, a mechanism by which pixel data for occluded window regions is remembered by the server thereby alleviating the need to send expose events to X clients when the data needs to be redisplayed. BackingStore is not bounded to NVIDIA drivers but to X server itself. ATI users would benefit of this option as well.

Under Device section add:

Option "BackingStore" "True"

Use OS-level events

Taken from NVIDIA drivers README file: "Use OS-level events to efficiently notify X when a client has performed direct rendering to a window that needs to be composited." Whatever it means, it may help improve performance. This option is currently incompatible with SLI and Multi-GPU modes.

Under Device section add:

Option "DamageEvents" "True"

This option is enabled by default in newer driver.

Enable power saving

... For a greener planet (not strictly related to NVIDIA drivers). Under Monitor section add:

Option "DPMS" "True"

Force Powermizer performance level (for laptops)

In your xorg.conf, add the following to Section "Device"

#force Powermizer to a certain level at all times
# level 0x1 = highest
# level 0x2 = med
# level 0x3 = lowest
Option "RegistryDwords" "PowerMizerLevelAC=0x3"
Option	"RegistryDwords"	"PowerMizerLevel=0x3"

Let the GPU set its own performance level (based on temperature)

In your xorg.conf, add the following to the Section "Device"

Option "RegistryDwords" "PerfLevelSrc=0x3333"

Disable vblank interrupts (for laptops)

When running the interrupt detection utility powertop, it is seen that the nvidia driver will generate an interrupt for every vblank. to disable, place in the Device section:

Option         "OnDemandVBlankInterrupts" "True"

This will reduce interrupts to about one or two per second.

Enable overclocking via nvidia-settings

To enable overclocking, place the following line in the "device" section:

Option         "Coolbits" "1"

This will enable on the fly overclocking by running nvidia-settings inside X.

Please note that overclocking may damage your hardware and that no responsibility may be placed on the authors of this page due to any damage to any information technology equipment from operating products out of specifications set by the manufacturer.

Further readings

Using TV-out on your NVIDIA card

Good article on the subject can be found from:

 http://en.wikibooks.org/wiki/NVidia/TV-OUT

Why is the refresh rate not reported correctly by utilities that use the XRandR X extension (e.g., the GNOME "Screen Resolution Preferences" panel, `xrandr -q`, etc)?

The XRandR X extension is not presently aware of multiple display devices on a single X screen; it only sees the MetaMode bounding box, which may contain one or more actual modes. This means that if multiple MetaModes have the same bounding box, XRandR will not be able to distinguish between them.

In order to support DynamicTwinView, the NVIDIA X driver must make each MetaMode appear to be unique to XRandR. Presently, the NVIDIA X driver accomplishes this by using the refresh rate as a unique identifier.

You can use `nvidia-settings -q RefreshRate` to query the actual refresh rate on each display device.

The XRandR extension is currently being redesigned by the X.Org community, so the refresh rate workaround may be removed at some point in the future.

This workaround can also be disabled by setting the "DynamicTwinView" X configuration option to FALSE, which will disable NV-CONTROL support for manipulating MetaModes, but will cause the XRandR and XF86VidMode visible refresh rate to be accurate.

How to install NVIDIA Driver with custom kernel

It's an advantage to know how the ABS system works by reading some of the other wiki pages about it, first:


We will create our own pacman package quickly by using ABS, which will build the module for the currently running kernel:

Make a temporary directory for creating our new package:

 mkdir -p /var/abs/local/

Make a copy of the nvidia package directory:

 cp -r /var/abs/extra/nvidia/ /var/abs/local/

Go into our temporary nvidia directory:

 cd /var/abs/local/nvidia

We need to edit the two files nvidia.install and the PKGBUILD file, so they contain the right kernel version variables, so we don't have to move it from the stock kernel /lib/modules/2.6.xx-ARCH directory.

You can get your kernel version and local version name if you type:

 uname -r
  • In nvidia.install replace the KERNEL_VERSION="2.6.xx-ARCH" variable with your kernel version, such as KERNEL_VERSION="2.6.22.6" or KERNEL_VERSION"2.6.22.6-custom" depending on what your kernels version is and local version text/number. Do this for all instances of the version number within this file.
  • In PKGBUILD change the _kernver='2.6.xx-ARCH' variable to match your kernel version again, like above.
  • If you have more than one kernel coexisting in parallel with another, (such as a custom kernel alongside the default -ARCH kernel) change the "pkgname=nvidia" variable in the PKGBUILD to a unique identifier, such as nvidia-2622 or nvidia-custom. This will allow both kernels to use the nvidia module, since the custom nvidia module has a different package name and will not overwrite the original.

Then do:

 makepkg -i -c

.. Now it will automatically build the NVIDIA module for your custom kernel and clean up the leftover files from creating the package. Enjoy!