반응형
네트워크 실습은 꽤 많은 구축 비용을 요구합니다. 통신을 하려면 일단 최소한 2개 이상의 기기(PC, 서버, IoT 장비 등)가 필요하니까요. 그리고 고작 단말 2~3개로 끝나지 않고, 때론 수십 개의 단말이 여러 서브 네트워크로 쪼개져서 복잡한 토폴로지를 구성하는 일이 잦을 겁니다. 이런 경우에는 서버나 PC 장비 뿐만 아니라 스위치, 허브, AP, 라우터 같은 네트워크 장치도 넉넉히 보유해야 하며, 또 그것들을 배치할 공간도 마련해야겠죠. 일반인들은 이러한 고가의 장비들, 다수의 네트워크 단말을 손에 넣을 수 없습니다. 그래서 네트워크 테스트베드를 가상 환경에서 빠르고 저비용으로 설계하고 실험해볼 수 있는 도구들이 개발되어 왔습니다. 1. GNS3 = 네트워크 입문자를 위한 시뮬레이터 GNS3는 대표..
Tshark 포스팅에 이어, 이제 나머지 몇몇 Wireshark 유틸을 소개하고 Wireshark 가이드를 마치려고 합니다. 패킷 수집과 별개로, pcap 파일을 다룰 때 미리 알아두면 쓸데없이 고생하지 않게 도와주는 유용한 부가 기능들을 알려드리겠습니다. Wireshark를 설치하면 같이 따라오는 요녀석들인데요. 각각의 기능을 살펴보면, capinfos: 덤프 파일의 각종 통계(ex., 패킷 수, 전체 데이터 크기, duration, bytes/sec 등)를 산출 mergecap: 여러 개의 pcap/pcapng 파일을 하나의 덤프 파일로 통합해주는 도구 dumpcap: 명령 인터페이스 기반 패킷 수집기 editcap: 패킷 덤프 파일의 일부 영역을 추출하는 도구 reordercap: pcap/pcap..
Docker Swarm 구축 시에 가상머신으로 노드를 띄우고자 한다면 ‘Docker-Machine’을 활용해보는 것도 좋은 옵션입니다. Docker-Machine은 가볍고 최적화된 OS 이미지로 Swarm 노드들을 생성하고 클러스터 운영/관리를 돕는 커맨드-라인 기반의 플러그인입니다. 사전 준비요소 Docker 서비스를 구동시키는 Docker Engine과 가상머신 생성을 위한 드라이버를 제공하는 VirtualBox나 VMware와 같은 도구가 미리 설치되어 있어야 합니다. Docker Engine: https://docs.docker.com/engine/install/ Virtualbox: https://www.virtualbox.org/wiki/Downloads Install Docker Engine..
1. 사전 준비물 Docker Swarm으로 클러스터를 운영하기 위해서 다음과 같은 요소들이 필요합니다. 2개 이상의 PC Docker Swarm은 기본 Docker 시스템과 달리, 멀티 노드로 확장하는 클러스터 운영 프레임워크입니다. 따라서 호스트 머신 하나로는 구축이 의미가 없으며, 둘 이상의 PC를 배치하고 통신을 열어주던지, 또는 다수의 PC를 운영할 여력이 안 된다면 가상머신을 이용하는게 좋습니다. 가상머신으로 클러스터를 구성하고자 한다면 Vmware/VirtualBox*로 비어 있는 상태의 Linux를 미리 준비해두면 됩니다. 좀 더 간결한 가상머신 구축을 원한다면 *Docker Machine(지금은 더 이상 패치가 없다고 하네요 😪)을 활용하는 방법도 있으니, 이와 관련해서는 바로 다음 포스..
1. 네트워크 주소 식별 체계에 관해 네트워킹을 하는 장치들은 제각기 2종류의 고유 주소를 갖고 있습니다. 바로 MAC 주소와 IP 주소입니다. 대게 IP 주소만을 이용하여 패킷이 목적지에 해당하는 호스트를 찾아간다고 생각할 수 있으나, 이는 잘못된 생각입니다. 통신 단말들은 LAN이라는 그룹 환경을 이루고, 패킷이 최종 목적지까지 도달하는 과정에서 스위치나 브릿지와 같은 중계 장비를 통과해야만 하는데, 이 때 목적지의 MAC 주소가 있어야 하기 때문이죠. 직전에 라우팅 과정에서 IP 주소가 쓰이므로, 결국 데이터 송신자는 목적지의 MAC 주소와 IP 주소를 모두 알고있는 상태에서 통신을 수행하는 셈입니다. 다만, 한 가지 의아한 부분이 있습니다. 한 번도 통신해본 적이 없는 상대방의 MAC 주소를 어떻..
1. 데이터 준비 시각화할 데이터를 서비스에 올리기 위해서 아래의 3가지 방법을 이용할 수 있습니다. Kibana 웹 인터페이스에서 직접 데이터 업로드 (csv, tsv, json 등의 데이터 포맷 허용) 터미널 또는 프롬프트에서 Elasticsearch REST API로 데이터 업로드 (json 포맷) Logstash로 파일을 읽어들여서 Elastic Engine에 저장 위 3가지 케이스들을 하나씩 테스트해보기 위해서 데이터 샘플을 준비하였습니다. 아래의 데이터는 2017~2021년 사이의 Bitcoin 거래 통계를 매주마다 기록한 리스트입니다. trade.csv trade.json 방식 A: Kibana 웹 인터페이스에서 데이터 업로드 터미널에서 명령어를 입력할 필요도 없고, 드래그 앤 드롭으로 곧바..