Régóta elfogadott tény, hogy a számítógép, bár önmagában is hasznos, az igazi lehetőségeit csak akkor mutatja meg, ha a hálózatba kötve használják azt. Ekkor válnak elérhetővé azok az adatok, információk is, amelyek más, távoli számítógépeken vannak tárolva.
Azokat a számítógépeket, amelyeket kifejezetten ilyen célokra fejlesztettek ki, gyűjtőszóval szervereknek (kiszolgálóknak) nevezik. Attól függően, hogy ezeknek a szervereknek mi az elsődleges feladatuk, megkülönböztetünk például nyomtató-, fájl-, web-, adatbázisszervereket és így tovább. Ebben a (szoftveres) megközelítésben a szerver tehát kiszolgáló feladatokat lát el. Nem mindegy azonban, hogy a szerver mennyire terhelhető, például hány kérést képes egy időben vagy közel egy időben kiszolgálni. Ez ugyanis már nem elsősorban szoftveres kérdés. Nagyon sok múlik azon, hogy milyen hardver komponenseket építenek a számítógépbe. Ennek megfelelően egy szerver a PC-knél lényegesen erősebb lehet, mivel olyan (és annyi) processzort (CPU), olyan (és annyi) memóriát (RAM), olyan (és annyi) háttértárolót (merevlemez vagy hard disk) tesznek bele, hogy az valóban a kívánt mértékig terhelhető legyen.
Nem pontatlanság miatt utalunk itt ilyen óvatosan a számítógép hardveres felépítésére. Processzor esetében például az egyik meghatározó paraméter az, hogy mekkora a működési órajele. Ezt már viszonylag régóta GHz-ben adják meg. Ugyanakkor nem ez az egyetlen paraméter, amely a sebességére kihat. Hasonlóan fontos, hogy egy időben hány feladattal tud (egymással párhuzamosan) foglalkozni. Ennek érdekében egy processzor (tok)ba több magot (core) tesznek. Ezzel a technikával pár éve már a korszerű mobiltelefonok esetében is lehet találkozni. Az eleve szervereknek tervezett számítógépeket olyan belső kialakítással (architektúrával) tervezik és gyártják, amely nagyobb belső adattovábbítási sebességet, bővíthetőséget, menetközbeni komponenscserét tud biztosítani.