Skocz do zawartości
cavarr

Ati Radeon Hd 2900pro/xt/xtx

Rekomendowane odpowiedzi

...

Ja uwazam ze zeby pograc na grach pod DX10 w takich detalach jak na grach pod DX9 mozna grac na G80 to trzeba bedzie poczekac na G100 i r700....

G100 to już było - Matrox o wydajności i funkcjach 3D nieco lepszych od Virge'a :lol2: Prędzej G81 będzie już układem o dobrej wydajności pod DX10, i nawet nie przekreślał bym jeszcze GTS-ów i GTX-ów.

Co do przyszłości, to chodziły słuchy, że następna zupełnie nowa generacja układów 3D, to nie będą "kolosy" zawierające w sobie np. 1mld trazystorów, a raczej kilka układów G90/R7(8)00 na jednej płytce PCB. Ma to być tańsze i prostrze rozwiązanie, a technologia Stream Processors ułatwia dobrą i wydajną obsługę takich rozwiązań.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do wszystkich postujących w temacie !!

 

Dalsze prowadzenie jałowych dyskusji nV VS ATi zaowocuje regulaminowymi restrykcjami (OT, obrażanie innych tez by się znalazło).

Dyskusje o wyższości masła nad margaryną i odwrotnie prowadźcie sobie via PW :angry:

 

pozdrawiam

sansaba

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

8800 , 29XT to pierwsze karty na dx10 , dlaczego piszecie że " nie wystarczą do końca ery dx10" ?

przecież niewiadomo nawet ile bedzie trwała ta era, niebawem napewno pojawią sie nowe karcioszki.

 

6800 też były "jako tako" pierwszymi kartam ery dx9.0c i nie wystarczyły :D [taki joke]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

G100 to już było - Matrox o wydajności i funkcjach 3D nieco lepszych od Virge'a :lol2: Prędzej G81 będzie już układem o dobrej wydajności pod DX10, i nawet nie przekreślał bym jeszcze GTS-ów i GTX-ów.

Co do przyszłości, to chodziły słuchy, że następna zupełnie nowa generacja układów 3D, to nie będą "kolosy" zawierające w sobie np. 1mld trazystorów, a raczej kilka układów G90/R7(8)00 na jednej płytce PCB. Ma to być tańsze i prostrze rozwiązanie, a technologia Stream Processors ułatwia dobrą i wydajną obsługę takich rozwiązań.

G81 nie będzie w ogóle a nawet jakby był to byłby to tylko dużo wyżej taktowany G80 (vide GF7800->GF7900).... NVIDIA ma wydac od razu G90 który ma rywalizowac z r650....

 

A co do r600 i G80 to nie to ze nie wstarcza do ery DX10 tylko ze napewno na tych kartach nie bedziesz mógł pograc w MAX detalach i wysokich rozdziakach w więkzosc gier....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

w wysokich rozdzielczościach nie, ale większość użytkowników nie przekracza rozdzielki 1280x1024, a w takiej oczywiście, że pograją na najwyższych detalach + AA + Anizo. Co by się nie stało, ja zbieram na X2900 :>

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Devil dokladnie. Ani GTX ani 29XT nie bedzie cudem wydajnosci w DX10. Sa swietne do grania w DX9 w wysokich rozdzielczosciach i jako tako pogra sie na nich na DX10 przez pierwszy rok, moze poltora.

Zgadzam się w 100%.....jak kupowałem grafe to:

miała sobie radzić super w DX9 .i.

w DX10 pozwolić na płynne granie z AAx4 FSAx16 , w przynajmniej w 1024 lub 1280 i shadow na medium ...i na razie jest ok więc się nie zawiodłem....co najważniejsze jakość wyświetlanej grafiki jest ok.....

dalej czekam na rozwój gier i kart....

z serią pop generacji było zdecydowanie gożej 6800 kontra DX9c SM 3,0 i HDR.

a po pierwszym graniu w Lost Planet uważam że Xbox360 kontra DX10 może się chować.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm ale trzeba zadać sobie pytanie, czy ci co kupili 8800 chcieli sie przygotować do DX10? Bo moim zdaniem większość posiadaczy serii 8 kupili te karty, bo świetnie sobię radzą z dzisiejszymi grami, a że za rok, półtora będzie juz słabiej, no to to oczywiste, i to nie ze wzgledu na DX10, tylko po prostu nowe gry - coraz większe wymagania. Tak z resztą było z poprzednimi kartami high-end. Nie powiem że 7900GTX/7800GTX to już badziew (chciałbym mieć tą kartę), ale juz nei wystarczają do full detali w duzej rozdziałce w nowych grach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no i wszystko jasne odnosnie wydajnosc r600 w fsaa

http://www.custompc.co.uk/custompc/news/11...erformance.html

imho robia dobra mine do zlej gry i tyle. wszystko sie wyjasni w dniu premiery ukladow rx6xx, ale to i tak tylko wierzcholek gory lodowej, ale co ja tam moge wiedziec ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no i wszystko jasne odnosnie wydajnosc r600 w fsaa

http://www.custompc.co.uk/custompc/news/11...erformance.html

imho robia dobra mine do zlej gry i tyle. wszystko sie wyjasni w dniu premiery ukladow rx6xx, ale to i tak tylko wierzcholek gory lodowej, ale co ja tam moge wiedziec ;)

Teraz wykazales, ze wiesz niewiele, bo pan R.Huddy dyplomatycznie wytlumaczyl dlaczego ATI - co widac na pierwszy rzut zrezygnowala z dedykowanych jednostek wykonawczych starego typu. Najlepsze jest to, ze moc obliczeniowa ukladow ATI nigdy nie byla i pewnie nie bedzie w pelni wykorzystana, glownie przez sentyment i stare nawyki do dawnej metody programowania dla przypisanych jednostek pod konkretne operacje. Pierwsze gry z programowalnym FSAA juz wyszly, a czekaja w kolejce nastepne, notabene G80 moze to takze obsluzyc, ale odbije sie to jeszcze mocniej na spadku fps.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś to Ati kombinuje , seria x19xx AA realizowała za pomocą pixel shaderów. A seria x29xx robi to za pomocą Ropów? Chyba mogą tak napisać sterownik , by shadery realizowały AA. Moim zdaniem coś przekombinowali.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś to Ati kombinuje , seria x19xx AA realizowała za pomocą pixel shaderów. A seria x29xx robi to za pomocą Ropów? Chyba mogą tak napisać sterownik , by shadery realizowały AA. Moim zdaniem coś przekombinowali.

no wlasnie zdaje sie, ze jest odwrotnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeszcze poczatku ery nie ma a gtx niestety nie wyrabia w w full + fsaa max + anizo max + 1650x1080.

dla mnie jest to smieszne co piszesz. mam gts'a gram w to lost planet i nie moge nacieszyc oczu jak ta gierka wyglada i ciesze sie ze dziala tak ze moge sobie KOMFORTOWO POGRAC. dalem tylko cien na medium, roznicy nawet nie zauwazylem a gra jest naprawde grywalna. co moze mi powiesz, ze na gtx nie pograsz w lost planet? do tego to jakas wczesna wersja, dopracuja i bedzie spoko...

 

bawi mnie jak ludzie przezywaja, ze nie dziala wszystko na full, bo cieni sie nie chce na medium zmienic, lol :D

to chyba wjezdza coniektorym na psychike, ze kazdy suwak musi byc na maxa :rolleyes:

 

imho g80 bedzie sie spisywal dobrze conajmniej do 1280x1024, heh ile czasu trzeba bylo czekac by cieszyc sie plynnoscia w rozdzielczosciach hd w dx9?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co nowa gra to większe wymagania a nie odwrotnie jak ktoś powyżej napisał. :) Skoro teraz te grafy są w miarę to z nowymi tytułami będzie raczej gorzej a nie lepiej. Nikt tu nie uczy się nowego DX i będzie go lepiej wykorzystywał bo to nie konsole. W PC wszystko idzie do przodu. :) Także szykujcie się na wymianę graf na nowy rok bo te staną się niewystarczalne. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem coś zwalili w chipsecie R600 bądź innej części. Jeżeli tych wszystkich problemów sterowniki nie naprawią, to współczuję tym, co tą kartę kupili, bo rekompensaty nie będzie niestety. Amd już jest za biedne...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co nowa gra to większe wymagania a nie odwrotnie jak ktoś powyżej napisał. :) Skoro teraz te grafy są w miarę to z nowymi tytułami będzie raczej gorzej a nie lepiej. Nikt tu nie uczy się nowego DX i będzie go lepiej wykorzystywał bo to nie konsole. W PC wszystko idzie do przodu. :) Także szykujcie się na wymianę graf na nowy rok bo te staną się niewystarczalne. ;)

wez pod uwage, ze konwersje raczej zawsze dzialaly slabo (hi halo), pierwotnie to nie jest gra pisana na pc, poczekajmy na taka ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co nowa gra to większe wymagania a nie odwrotnie jak ktoś powyżej napisał. :) Skoro teraz te grafy są w miarę to z nowymi tytułami będzie raczej gorzej a nie lepiej. Nikt tu nie uczy się nowego DX i będzie go lepiej wykorzystywał bo to nie konsole. W PC wszystko idzie do przodu. :) Także szykujcie się na wymianę graf na nowy rok bo te staną się niewystarczalne. ;)

Kupisz wtenczas moją by pograć na średnich.

 

:D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i sie wyjaśniło - ATI bardzo przyszłościowo podeszło do sprawy ! Zobaczycie, że NV też w nast. generacji pójdzie w dokładnie tym samym kierunku.

Huddy ma całkowitą rację - 'stara' metoda MSAA jest archaiczna przy tak intensywnym wykorzystywaniu pixel shaderów, a zwłaszcza HDR. Ba - będzie kompletnie nieużyteczna w przyszłych tytułach !

Nie trzeba daleko szukać - STALKER. Przy tak olbrzymich ilościach źródeł światła klasyczne metody cieniowania wymiękają. Dlatego w STALKERZE jako pierwszej tak dużej produkcji wykorzystano deferred rendering - czyli całe cieniowanie jest robione przes pixel shadery w czasie post processingu, dzięki czemu po pierwsze jest renderowane szybciej tak skomplikowanych scen pod względem ilości świateł i cieni, po drugie jest zdecydowanie większa elastyczność pod względem możliwości korzystania z innych efektów.

Wymaga to jednak po pierwsze przechowywania dużej dodatkowej informacji dla każdego pixela obrazu. W bardzo dużym frame bufferze (nie biedne 32bpp, tylko ileś razy tyle) można przechować dodatkowo (oprócz wektora normalnego i masy innych inf.) maskę krawędzi polygonów (i np. granic texeli z kanału alfa textury), dzięki czemu można potem tylko w tych miejscach wykonać sprytny selektywny 'blur', i będziemy mieli substytut MSAA z adaptive AA w jednym, + dodatkowo możemy spokojnie uwzględnić zmiany kolorów pixeli spowodowanych efektami jak choćby HDR czy innych efektów pixel shaderów, czego MSAA nie jest w stanie zrobić i generuje artefakty. Jak myślicie, dlaczego na NV w FarCry nie da się brykać z HDR+AA ?

Z tego samego powodu nie ma AA w STALKERZE przy ścieżce ps3.0 - MSAA generował by totalnie schrzaniony AA. Dlatego ruch ATI w stronę programowalnego AA na poziomie pixel shaderów, co jest bardzo logicznym ruchem.

 

To rozwiązanie ma kolejną zaletę - olbrzymi potencjał modyfikowania AA w sterownikach.

 

Niestety - w starych tytułach, nie korzystających z deferred renderingu, będzie biednie - dlatego teraz aa w nich daje rozmycie, bo sam algorym gry nie przewiduje przechowywania informacji o krawędziach polygonów, i kupę można zrobić. No chyba, że hardwareowo w ati zrobili wykrywanie krawędzi i specjalne przechowywanie ich w buforze, tylko jeszcze nie zdążyli ich programiści na inteligentne tego wykorzystanie w sterach (może to jest to wykrywanie krawędzi o którym piszą odnośnie tej karty).

 

Powiem tak - teraz mam znacznie większą nadzieje, że aktualne problemy zostaną rozwiązane w sterownikach.

 

Z niecierpliwością czekam na rozwój wydarzeń i odpowiedź NV w kolejnej gen. kart.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A na jakich ati można było grać z hdr+aa ? sam sobie odpowiedz.

NV na tyle zmodyfikowało rdzeń gf8, że specyficzna implementacja MSAA+HDR w farcry (bo to cały czas jest MSAA, a nie jak w r600 pełne aa by pixel shadery) będzie działało jak na serii ati x18xx, które też nie mają aa jak r600. Spekuluję, że farcry zapisuje jakoś wynik msaa i odpowiednio modyfikuje go o wynik hdr na poziomie shaderow - takie 'deferred rendering dla ubogich'. Ale to moja baardzo luźna spekulacja.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i sie wyjaśniło - ATI bardzo przyszłościowo podeszło do sprawy !

zapewne tak tylko wiesz, podobne "przyszlosciowe" teksty slyszalem w dniu premierey nv30 ;)

 

Nie trzeba daleko szukać - STALKER.

widziales testy stalkera na 2900xt?

 

To rozwiązanie ma kolejną zaletę - olbrzymi potencjał modyfikowania AA w sterownikach.

ktory zostanie uwolniony w dx10 wlasnie prze zupelnie inne dzialanie "renderera" w tym API w porownaniu do dx9. wszystko o czym piszesz to glownie wlasnie ograniczenia dx9.

 

Powiem tak - teraz mam znacznie większą nadzieje, że aktualne problemy zostaną rozwiązane w sterownikach.

byc moze, ale z tego co widze bardzo w to watpie, tym bardziej jezeli mowa jest o dx9. w dx10 systuacja moze wygladac znacznie lepiej tyle, ze przekonamy sie o tym dopiero pod koniec tego roku, a do tego czasu pojawia sie wydajniesze i jescze bardziej zoptymalizowane ukladu pod dx10.

tak wiec moje pytanie - po co teraz kupowac cos na r600, jak w dx9 sie on nie sprawdza, a do dx10 i tak bedzie za slaby?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

widziales testy stalkera na 2900xt?

...w którym nie ma AA zaimplementowanego ze względu na sposób renderingu, do którego wspierania nie są przystosowane żadne karty ps3.0, a r600 nie istniał. Kod stalkera pomimo deferred renderingu i tak jest napisany pod karty ps3.0, nie dziwię się, że wypada gorzej niż gf8.

Wyjdą nowe tytuły, pisane już jak r600 jest na rynku, to się zobaczy. Call of Juarez i Lost Planet są pierwszymi pod dx10, i jestem przekonany, że nie wykorzystają nawet części prawdziwych możliwości dx10. Zresztą Lost Planet pod dx9 nie wygląda inaczej, a i działa równie szybko... :?

 

a do dx10 i tak będzie za slaby

..a to wywróżyłeś z fusów ? Może tak, może nie. Na razie mamy całe 2 testy, które i tak pewnie pisane były pod dx9 ale zmodyfikowane pod korzystanie z niektórych funkcji dx10.

Na razie oczywiście w życiu bym żadnej karty dx10 nie kupił - bo nigdy nie kupuję 'eksperymentów'. Jak się sprawdzi, to może. Zawsze wszystko weryfikuje rzeczywistość - więc pożyjemy to zobaczymy.

Teraz możemy tylko teoretyzować. Mi na pewno ten ruch ati wydaje się zdecydowanie lepszym niż implementacja ps3.0 3-4 lata temu w gf6, które dopiero się przydało w stalkerze (na x8xx nie pogra się z dynamic lightning).

 

Na koniec - kto wie, może gf8 też ma możliwość takiego AA na poziomie ps, tylko na razie się nie chwalą... Jak temporal AA, adaptive AA, geometry instancing na staruteńkim r300, gdy przy jego konstruowaniu tych technik nie brano pod uwagę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...w którym nie ma AA zaimplementowanego ze względu na sposób renderingu,

i przez dx9. pod dx10 nie bedzie problemu z polaczeniem dr i msaa. zreszta sami developerzy stalkera o tym wspominali.

 

Kod stalkera pomimo deferred renderingu i tak jest napisany pod karty ps3.0, nie dziwię się, że wypada gorzej niż gf8.

ale przeciez gf8 nie jest karta tylko ps3, a stalker na nim "biega". swoja droga problemem r600 jest imho nie tylko inna implementacja fsaa, ale tez slaba wydajnosc operacji na teksturach.

 

..a to wywróżyłeś z fusów ?

nie, ale nie wierze w cuda, ze uklad, ktory ma obecnie "problemy" z wydajnoscia, nagle "automagicznie " stanie sie demonem szybkosci. byc moze jego wydajnosc unormuje sie na jakims poziomie, a nie tak jak teraz, raz lepiej, raz gorzej, ale o jakims wiekszym wzroscie wydajnosci imho nie ma co marzyc.

 

Może tak, może nie. Na razie mamy całe 2 testy, które i tak pewnie pisane były pod dx9 ale zmodyfikowane pod korzystanie z niektórych funkcji dx10.

te testy to tylko ciekawwostka, a nie pokaz mozliwosci, i jako takie nie moga byc brane do okreslenia ogolnej wydajnosc. podobnie zreszta bedzie z nowym markiem. stweirdzic, ze cos bedzie leieiej sie sprawoswc w dx10, bedzie imho mozna dopiero za rok, jak juz na rynku bedzie wiecej tytulow i systuacja sterownikow i samego systemu sie unormuje. tylko, ze kto wtedy bedzie "pamietal" o r600/g80? na dzien dzisiejszy imho r600 jest za malo "elastyczny".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kupisz wtenczas moją by pograć na średnich.

 

:D

Nie kupię! Na razie koniec z PC. :D Zacznę zastanawiać się nad nową grafą gdy grafika na PS3 zacznie mnie przerażać! :) Wtedy to te grafy będą takie cienkie, że do LOW nie będą się nadawać! :) Po za tym nie urządzają mnie detale na Medium! :D Jak kupować to tak jak do tej pory do High! Czyli coś z R700 i Gxxx? ;) Chyba, że Crysis zrobi robotę to wtedy zmienię na aktualne topowe. Dla tego liczę na nowe stery od ATI bo chciał bym mieć wybór. Na razie jestem za ATI. Jeśli się nic nie zmieni z wydajnością HD to trzeba będzie przeprosić się z nVidią i łyknąć ich produkt. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no i prawda wypłynęła na wierzch, to mi trochę przypomina czasy kiedy AMD wprowadził procesor z serii K5 w którym usunięto obsługę instrukcji Store i Load i było wielkie halo co ten AMD uczynił zabił większość programów ale z czasem Intel musiał uczynić to samo żeby uwolnić architekturę z tego balastu, teraz jest podobnie młotkologia NV wygrywa nad finezją ATI

 

właśnie miedzy innymi po to został stworzone jednostki PS żeby TMU zajęło się tylko nakładaniem tekstur a nie wykonywało jakiś tam kombinacji wiec wydajność i ilość w "nowoczesnych" grach nie powinno wpływać na wydajność poza tym czała innowacja/problem ATI polega właśnie na przerzuceniu AA FSAA na US a nie na ROP i td..., ale programy nie nadążają za techniką nawet programiści nie wiedzą czego chcą

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ktoś w Polsce już zrobił ponownie testy na jakiś beta-nowych sterach? TK miał upload robić, ciekawe kto pójdzie za ciosem.

Testy są cały czas robione.

Z tego co wiem to DJ dzisiaj zamierza wszystko wrzucić do końca.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie widziałem, bo nie mam gf8. Bazuję na opiniach osób z wątku o LP.

Text o 'na screenach nie widać różnicy' jest ...hmm... 'intrygujący'.

Karta grafiki generuje serię screenów, to jakim cudem na zapisanym do pliku jednym z nich nie widać tego, co Ty widzisz na ekranie ?

Nie czepiając się słówek - albo nie ma jej wcale, tylko podświadomość płata figle, albo różnica jest bardzo dyskretna, i aby ją zobaczyć trzeba by zrobić dokładną analizę tej samej klatki. Może takie testy gdzieś się pojawią. Na razie zgodnie z opinią testujących nie ma NAMACALNEJ różnicy pomiędzy ścieżką dx9 a dx10.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Karta grafiki generuje serię screenów, to jakim cudem na zapisanym do pliku jednym z nich nie widać tego, co Ty widzisz na ekranie ?

tak, karta generuje klatki, ale elementy na niej nie koniecznie musza byc elementami "stalymi" tylko generowanymi losowo - np.dym, mgla

 

wracajac do r600

http://www.fudzilla.com/index.php?option=c...42&Itemid=1

oczywiscei nie jest to jakies super wiarygodne zrodlo, ale i tak wydaje sie to bardzo mozliwe. dokladnie takie samo posuniecie bylo w przypadku r520-r580, z tym ze tam dotyczylo jednostek PS, a tutaj wydajnosci teksturowania. tym bardziej nie widze sensu w kupowaniu obecnie r600 :/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie widziałem, bo nie mam gf8. Bazuję na opiniach osób z wątku o LP.

Text o 'na screenach nie widać różnicy' jest ...hmm... 'intrygujący'.

Karta grafiki generuje serię screenów, to jakim cudem na zapisanym do pliku jednym z nich nie widać tego, co Ty widzisz na ekranie ?

Nie czepiając się słówek - albo nie ma jej wcale, tylko podświadomość płata figle, albo różnica jest bardzo dyskretna, i aby ją zobaczyć trzeba by zrobić dokładną analizę tej samej klatki. Może takie testy gdzieś się pojawią. Na razie zgodnie z opinią testujących nie ma NAMACALNEJ różnicy pomiędzy ścieżką dx9 a dx10.

Założę się, że na pclabie.

 

:D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...