Para un equipo en el que juguemos durante algunas horas en una zona cálida en verano (casi cualquier parte de España), lo habitual es que consuma unos 350 a 400 watios en plena carga (o sea, jugando a Battlefield 4 y juegos similares, o realizando diseño 3D).
Con una fuente de eficiencia 80% (lo recomendable), y teniendo en cuenta la situación geográfica, en verano podríamos necesitar una fuente de al menos 600W para compensar su pérdida de eficiencia, con un mínimo absoluto de 550W. Habrá tarjetas que consuman 150 a 200W en plena carga que necesitarán fuentes de alimentación de entre 550 a 600 W.
También el desgaste producido por el uso irá reduciendo con el tiempo su eficiencia, además de que cuando una fuente proporciona entre el 40 y 60% de su capacidad máxima es cuando es más eficiente. Por eso es recomendable aumentar el margen de watios que creamos necesitar para no gastarnos 60 euros en una y tenerla que cambiar al año. Idealmente, mantenerla funcionando a mitad de su capacidad aumenta al máximo su eficiencia y a la vez su vida útil.
Por último, y para que quede claro, una fuente de 500W y 80% de eficiencia es capaz de proporcionar esos 500W pero con un consumo real de unos 620W. Si por ejemplo calculas que tu equipo consume 450W como “máximo”, nada te impide comprar una fuente de 450W con eficiencia 80%. Te proporcionará esos 450W, pero el problema viene por los picos de consumo que superan esos 450W (en las tarjetas gráficas son habituales) que afectan negativamente a los componentes. Esto hace que otra vez la esperanza de vida de la fuente se vea enormemente reducida y, como decimos, pagaremos más a final de mes de electricidad.
Operar por debajo de su límite también permite a la fuente generar menos calor, que el ventilador funcione a menos revoluciones y se escuche menos. El calor generado de operar a máxima carga es también perjudicial para los componentes, y disminuye su esperanza de vida.