본문 바로가기

모의해킹

정보수집 단계 - (15) 구글 해킹 -1 정보수집 단계 - (15) 구글 해킹 -1 details : http://coffeenix.net/data_repository/pdf/googledork.pdf따옴표(" ")따옴표를 이용하면 여러개 단어를 묶어서 검색할 수 있다. 예를 들어, korean wikipedia라고 검색을 하면 something korean something wikipedia로 검색이 되지만 "korean wikipedia"로 검색을 하면 something korean wikipedia something 으로 검색이 된다.filetypefiletype을 이용하면 특정 파일타입만 검색할 수 있다. 예를 들어 wikipedia filetype:pdf라고 검색을 하면 wikipedia를 담은 pdf 파일만 구글에 검색된다. 특정한 ..
정보수집 단계 - (14) 쇼단(Shodan)을 활용한 정보수집 -6 정보수집 단계 - (14) 쇼단(Shodan)을 활용한 정보수집 -6 Korea에 대한 쇼단 요약정보.https://exposure.shodan.io/#/KR reference- https://chogar.blog.me/220807622102?Redirect=Log&from=postView- http://noplanlife.com/?p=319
정보수집 단계 - (13) 쇼단(Shodan)을 활용한 정보수집 -5 정보수집 단계 - (13) 쇼단(Shodan)을 활용한 정보수집 -5 LeakLookerFind open databases with Shodangithub : https://github.com/woj-ciech/LeakLooker 쇼단 명령어 중 데이터베이스 정보를 찾는데 특화된 오픈소스이다. 해당 leaklooker.py 파일을 보고 어떻게 쇼단 API를 활용하는 지 습득하면 향 후 도움이 될 것.
정보수집 단계 - (12) 쇼단(Shodan)을 활용한 정보수집 -4 정보수집 단계 - (12) 쇼단(Shodan)을 활용한 정보수집 -4 shodan host shodan host --history > host정보 획득 shodan scan submit shodan myip> 나의 ip정보 shodan stats --facets shodan stats --facets product product:d-link> d-link와 관련된 product 정보 많이 사용되는 순으로 정렬 shodan stats --facets port country:KR> 한국에서 가장 많이 사용하고 있는 포트7547 : 통신사 게이트웨이80 : http shodan stats --facets country telnet> country기준으로 telnet을 가장 많이 사용하는 곳 ( telnet은 ..
정보수집 단계 - (11) 쇼단(Shodan)을 활용한 정보수집 -3 정보수집 단계 - (11) 쇼단(Shodan)을 활용한 정보수집 -3 shodan download --limit 100 nginx_download nginx shodan convert nginx_download.json.gz xlsx 검색한 데이터를 다운로드하여 xls 파일로 활용할 수 있다. shodan convert nginx_download.json.gz images> ngnix는 서버이기때문에 image파일은 없다. shodan download --limit 100 webcam_download webcam shodan convert webcam_download.json.gz images> 이미지파일로 변환.
정보수집 단계 - (10) 쇼단(Shodan)을 활용한 정보수집 -2 정보수집 단계 - (10) 쇼단(Shodan)을 활용한 정보수집 -2 shodan init shodan host shodan count mysql shodan search --fields ip_str,port,org,hostnames tomcat 5.5
정보수집 단계 - (9) 쇼단(Shodan)을 활용한 정보수집 -1 정보수집 단계 - (9) 쇼단(Shodan)을 활용한 정보수집 쇼단(Shodan)은 OSINT의 대표적인 사이트이다. 또한, 범죄자들의 구글이다. 검색 keyword에 따라 IP:port 정보를 보여주어 해킹하는 데 사용할 수 있다. IP로도 검색할 수 있고, webcam, MySQL, mongodb와 같은 키워드로 검색할 수 있다. report result를 받아 세미나 자료로 활용할 수 있다.
정보수집 단계 - (8) archive.org의 활용 정보수집 단계 - (8) archive.org의 활용 검색엔진들은 저마다의 크롤러(crawler)를 사용하여 웹 페이지를 수집하여 카피한 웹 페이지를 저장한다.(=webcache)이렇게 카피된 웹 페이지(=webcahce)들은 검색 index를 붙여 검색엔진이 참조하도록 하여 검색 서비스를 제공하게 한다. archive.org도 위와 마찬가지로 크롤러를 사용하여 카피한 웹 페이지를 저장했다. 한가지 다른점은 과거부터 현재까지 수집한 모든 웹페이지를 저장해 놓았다는 것이다. 즉, 2003년 www.google.com 웹페이지와 2019년 www.google.com 웹페이지까지 시간대별로 크롤링한 결과가 있다. 이것을 이용하여 보안취약점을 발견할 수 있다. 과거에는 개인정보보호법도 없었고 지금처럼 보안수준이..