Od wtedy, tak mnie uczyli na uczelni, i widac nie pomylili sie .
W zależności od kompilatora dane typu int zajmują 2 lub 4 bajty, czyli 16 lub 32 bity. A więc mogą przyjmować 2^16=65536 lub 2^32=4294967296 różnych wartości. Jest przyjęte że typ int nie może zajmować więcej bajtów niż long i mniej niż short, a więc klasyfikuje się w przedziale:
short<=int<=long
zrodlo np : http://4programmers.net/C/Int