Zerev Opublikowano 14 Października 2017 Zgłoś Opublikowano 14 Października 2017 Witam. Jaką kartę sieciową 10gbe polecacie (żeby zadziałała na płycie z chipsetem B150), pod SuSe linux.Najlepiej jakby była na wtyczkę RJ45 :).Potrzebuje bezpośredniego połączenia pomiędzy Synology 1817 i serwerem SuSe linux (kopia bezpieczeństwa). Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 14 Października 2017 Zgłoś Opublikowano 14 Października 2017 (edytowane) A masz w kompie dysk nvme by wykorzystać potencjał takiego połączenia? Na pclab niedawno był artykuł na temat sieci 10gb. Edytowane 14 Października 2017 przez radiergummi 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Zerev Opublikowano 14 Października 2017 Zgłoś Opublikowano 14 Października 2017 A masz w kompie dysk nvme by wykorzystać potencjał takiego połączenia? Na pclab niedawno był artykuł na temat sieci 10gb. Nie mam nvme bo nie ma takiej potrzeby :) Synology 1817 ma 7 dysków w SHR (coś ala RAID5), więc sumując 7 dysków, a jak wiadomo RAID5 zwiększa prędkość odczytu więc będzie optymistycznie + 400Mb/s - 900Mb/s. To będzie serwer źródłowy. Serwer (backup'u + wirtualizacji "homelab") do którego szukam karty (domowej roboty), ma 6 dysków w RAID5 i 2 dyski SSD (pamięć podręczna), żeby móc złapać to co "nadlatuje" ;). Problem polega na tym, że kupiłem już kilka kart (RAID LSI Adaptec) i nic nie działa z tą konsumencką płytą, więc trochę ryzyko wydawać kasę na coś (10gbe) co nie będzie działać (kupuje używki). Co do artykułu to bardzo by się przydał, np. połączenie 2 komputerów kartami 10gbe, FreeNas 10gbe + PC 10gbe, wirtualizacja z linuxem KVM (ja osobiście lubię SuSe, można sporo wyklikać). Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dijkstra Opublikowano 15 Października 2017 Zgłoś Opublikowano 15 Października 2017 Problem polega na tym, że kupiłem już kilka kart (RAID LSI Adaptec) i nic nie działa z tą konsumencką płytą, więc trochę ryzyko wydawać kasę na coś (10gbe) co nie będzie działać (kupuje używki). Nie wnikając w "nie działa z konsumencką płytą" - powodów, dla którego raid LSI nie wstał na tej płycie może być wiele (np LSI nie miało vendora płyty w swoim biosie) - kontrolery ethernet to inna klasa urządzeń i jeżeli kernel suse ją obsłuży, to nie powinno być takich problemów. Coś z chipsetem intela albo broadcoma powinno działać, jeżeli kernel 3.x - na 2.6 raczej intel będzie pewniejszy. 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Zerev Opublikowano 15 Października 2017 Zgłoś Opublikowano 15 Października 2017 Cześć dzięki za radę - pozostaje tylko spróbować :) ... kontrolery ethernet to inna klasa urządzeń... Wnikając ciut głębiej to w "nic nie działa" to np. 2 karty 4x1Gbe (Intel® 82575GB) razem wpięte nie działają każda to tylko x4, procesor ma 16 linii, ale teraz patrząc na specyfikację procka (i7-6700t) to zobaczyłem teraz parametr: Liczba konfiguracji linii PCI expres = 1x16, 2x8, 1x8+2x4, nie wiem czy on ma znaczenie, bo w tym wypadku to te 2 karty LAN to konfiguracja: 2x4 + 2 sloty PCI (zajęte kartami kontrolerami dysków HDD 2xSATA). Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
barwniak Opublikowano 16 Października 2017 Zgłoś Opublikowano 16 Października 2017 (edytowane) Podział CPU linii PCI-e może wykorzystać tylko chipset serii Z. Chipsety H/B maja wsparcie tylko 1x16 z CPU. Edytowane 16 Października 2017 przez barwniak 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Zerev Opublikowano 18 Października 2017 Zgłoś Opublikowano 18 Października 2017 Podział CPU linii PCI-e może wykorzystać tylko chipset serii Z. Chipsety H/B maja wsparcie tylko 1x16 z CPU. Dzięki. No i chyba to może być problem. Kupiłem MSI Z170A Tomahawk, ponieważ jeden serwis internetowy sprzedaje "serwer" na tej płycie z opcją dodania kart raid (LSI, Adaptec, Startech), no i oczywiście najważniejsze - cena 260 zł :D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dijkstra Opublikowano 19 Października 2017 Zgłoś Opublikowano 19 Października 2017 Cześć dzięki za radę - pozostaje tylko spróbować :) Wnikając ciut głębiej to w "nic nie działa" to np. 2 karty 4x1Gbe (Intel® 82575GB) razem wpięte nie działają każda to tylko x4, Tak poza głównym tematem, ta karta nie przyda Ci się do zwiększenia prędkości w tej konkretnej konfiguracji. Bonding/teaming na n kartach/portach zadziała z pełną prędkością tylko, jeżli do serwera łączyć się będzie n klientów - wówczas bonding będzie miał łączną prędkość n gbps, ale każdy klient prędkość 1gbps i pojedynczy klient nie przeskoczy prędkości pojedynczego portu. Nie wiem, czy chciałeś jej użyć do tego samego, co karty 10G, ale to i tak by nie zadziałało. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Zerev Opublikowano 19 Października 2017 Zgłoś Opublikowano 19 Października 2017 Cześć dzięki, wyszło to już jakiś czas temu w praktyce :D, a miałem tu na myśli spróbowanie opcji z SAMBY Multichannel. Płytę zmieniam ze względu na niedziałające karty RAID od LSI (mam nadzieję że na tym zadziałają + chipset B150 nie obsługuje RAID...). Chcę połączyć NAS bezpośrednio z serwerem kartą 10gbe, wczoraj znalazłem Asus XG-C100C (chyba najtańsza opcja). Tą 4 portową od Intela chciałem wykorzystać na virtualne maszyny, ale jak LSI zadziała to braknie slotów, więc prawdopodobnie kupię coś na PCIe x 1 (LAN NIC). Z drugiej strony, jeżeli LSI zadziała i będę mógł ją passthrough do maszyny wirtualnej to prawdopodobnie przerzucę się na VmWare Esxi, w pierwszej VM będzie FreeNas + 10Gbe (do synology 1817) + 1Gbe (na połączenie z resztą sieci, nie wiem czy mi to wyjdzie) + druga maszyna wirtualna dla Rasbiana + Pi-Hole (blokowanie reklam), 3 VM na kontroler Unifi Ubiquiti, 4VM na dodatkowy serwer Plex. Taki był oryginalny plan ale wyszło jak wyszło :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...