본문 바로가기

모의해킹/정보수집 단계

정보수집 단계 - (10) 쇼단(Shodan)을 활용한 정보수집 -2 정보수집 단계 - (10) 쇼단(Shodan)을 활용한 정보수집 -2 shodan init shodan host shodan count mysql shodan search --fields ip_str,port,org,hostnames tomcat 5.5
정보수집 단계 - (9) 쇼단(Shodan)을 활용한 정보수집 -1 정보수집 단계 - (9) 쇼단(Shodan)을 활용한 정보수집 쇼단(Shodan)은 OSINT의 대표적인 사이트이다. 또한, 범죄자들의 구글이다. 검색 keyword에 따라 IP:port 정보를 보여주어 해킹하는 데 사용할 수 있다. IP로도 검색할 수 있고, webcam, MySQL, mongodb와 같은 키워드로 검색할 수 있다. report result를 받아 세미나 자료로 활용할 수 있다.
정보수집 단계 - (8) archive.org의 활용 정보수집 단계 - (8) archive.org의 활용 검색엔진들은 저마다의 크롤러(crawler)를 사용하여 웹 페이지를 수집하여 카피한 웹 페이지를 저장한다.(=webcache)이렇게 카피된 웹 페이지(=webcahce)들은 검색 index를 붙여 검색엔진이 참조하도록 하여 검색 서비스를 제공하게 한다. archive.org도 위와 마찬가지로 크롤러를 사용하여 카피한 웹 페이지를 저장했다. 한가지 다른점은 과거부터 현재까지 수집한 모든 웹페이지를 저장해 놓았다는 것이다. 즉, 2003년 www.google.com 웹페이지와 2019년 www.google.com 웹페이지까지 시간대별로 크롤링한 결과가 있다. 이것을 이용하여 보안취약점을 발견할 수 있다. 과거에는 개인정보보호법도 없었고 지금처럼 보안수준이..
정보수집 단계 - (7) 크롤러의 사용 정보수집 단계 - (7) 크롤러의 사용 크롤링(crawling) 혹은 스크레이핑(scraping)은 웹 페이지를 그대로 가져와서 거기서 데이터를 추출해 내는 행위이다. 크롤링하는 소프트웨어는 크롤러(crawler)라고 부른다.
정보수집 단계 - (6) OSRFramework를 이용한 사용자 정보 획득 정보수집 단계 - (6) OSRFramework를 이용한 사용자 정보 획득 details : https://github.com/i3visio/osrframework OSINT의 일종으로 username으로 검색할 수 있는 장점이 있다.예를 들어, gildong 이라는 ID를 사용하는 사용자가 있다고 가정하면 이 사용자는 google, facebook, instram등 다양한 플랫폼에서 동일한 ID를 사용하고 있을 가능성이 높다. 이것을 바탕으로 공격할 수 있다. osrf> osrf 실행 osrf --help usufy -n > usufy -n gildong> 닉네임 기반 플랫폼 정보탐색 usufy -n -p facebook instagram twitter> usufy -n gildong -p facebo..
정보수집 단계 - (5) recon-ng를 활용한 사이트 정보 수집 정보수집 단계 - (5) recon-ng를 활용한 사이트 정보 수집 recon-ng라는 모듈이 칼리 리눅스에 기본적으로 설치되어 있다.해당 모듈을 이용하면 (1) 도메인 정보, (2) OSINT를 통해 얻을 수 있는 모든 것들(한번에 해냄) 을 얻을 수 있다. recon-ng : recon-ng 실행 help : 도움말 search > search domain 와 같이 키워드 내용을 포함한 recon-ng기능을 검색한다. workspaces add > workspaces add google.com과 같이 내가 사용할 workspace를 생성한다 workspaces select > 생성된 workspace 선택 그 다음, recon-ng에서 어떠한 기능을 사용할 것인지 결정한다.중간중간 use recon/..
정보수집 단계 - (4) urlscan을 이용한 홈페이지 정보 획득 정보수집 단계 - (4) urlscan을 이용한 홈페이지 정보 획득 urlscan은 OSINT 중 하나이다. 해당 서비스는 URL을 전달하였을 때 해당 html을 분석한 결과를 보여준다.Lookup을 클릭하면 연동된 서비스목록이 나온다.VirusTotal은 해당 웹페이지의 악성코드 정보Archive.org는 해당 웹페이지의 과거 시간대별 정보Censys는 호스트 정보를 출력해주는데 상당히 UI가 깔끔하다
정보수집 단계 - (3) sublist3r 정보수집 단계 - (3)sublist3r 메인 도메인보다 서브 도메인에서 침해사례가 많이 발생한다. 따라서, 서브 도메인을 시작으로 보안 취약점을 분석한다. sublist3rsublist3r은 서브 도메인을 검색하는 오픈소스 도구이다. OSINT(bing, google, DNSdumpster, ...)등을 기반으로 메인 도메인이 갖는 모든 서브 도메인을 찾는다. 자세한 정보 : https://github.com/aboul3la/Sublist3r + kali linux 명령어pip install -r requirements.txt