使用相同的 python 代码发送数据包和嗅探

sending packet and sniffing in same python code

我需要设置与列表中不同网站的连接。只为该网站发送一些数据包和嗅探数据包,直到我不去下一个网站(迭代)。当我进入下一次迭代(网站)时,我只想嗅探和过滤该地址。我可以在单个 python 代码中实现吗?

sniff(filter="ip and host " + ip_addr,prn=print_summary)
req = "GET / HTTP/1.1\r\nHost: "+ website +"\r\nConnection: keep-alive\r\nCache-Control: max-age=0\r\nUpgrade-Insecure-Requests: 1\r\nUser-Agent: Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu Chromium/58.0.3029.110 Chrome/58.0.3029.110 Safari/537.36\r\nAccept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8\r\nAccept-Language: en-US,en;q=0.8\r\n\r\n"
url = (website, 80)
c = socket.socket(socket.AF_INET, socket.SOCK_STREAM, proto=socket.IPPROTO_TCP)
c.settimeout(5.0)
c.connect(url)
c.setsockopt(socket.SOL_IP, socket.IP_TTL, i)
c.send(req)
print str(c.recv(4096))
c.close()

我正在 运行循环上面的代码。但在它的第一个 运行 期间,它卡在了嗅探功能中。谁能帮我解决这个问题?

好的,我已经编辑了答案。

嗅探单个网站的数据包并不容易,因为 Berkley Packet Filter syntax used by scrapy doesn't have a simple option for HTTP. See this question 有关可用选项的一些建议。

一种可能是嗅探 TCP 数据包 to/from 您的 Web 代理服务器;我在下面的代码示例中完成了此操作,它将不同 URL 列表的 TCP 数据包保存到各个命名文件。我没有放入任何逻辑来检测页面加载何时完成,我只是使用了 60 秒超时。如果您想要不同的东西,那么您可以以此为起点。如果您没有要嗅探的代理服务器,那么您需要更改 bpf_filter 变量。

注意如果你想保存原始数据包数据,而不是转换为字符串的版本,则修改相关行(在代码中注释。)

from scapy.all import *
import urllib
import urlparse
import threading
import re

proxy   = "http://my.proxy.server:8080"
proxyIP = "1.2.3.4" # IP address of proxy

# list of URLs
urls = ["http://www.bbc.co.uk/news",
        "http://www.google.co.uk"]

packets = []

# packet callback
def pkt_callback(pkt):
    packets.append(pkt) # save the packet

# monitor function
def monitor(fname):
    del packets[:]
    bpf_filter = "tcp and host " + proxyIP       # set this filter to capture the traffic you want
    sniff(timeout=60, prn=pkt_callback, filter=bpf_filter, store=0)
    f=open(fname+".data", 'w')
    for pkt in packets:
        f.write(repr(pkt))  # or just save the raw packet data instead
        f.write('\n')
    f.close()

for url in urls:
    print "capturing: " + url
    mon = threading.Thread(target=monitor, args=(re.sub(r'\W+', '', url),))
    mon.start()
    data = urllib.urlopen(url, proxies={'http': proxy})
    # this line gets IP address of url host, might be helpful 
    # addr = socket.gethostbyname(urlparse.urlparse(data.geturl()).hostname)
    mon.join()

希望这能给你一个好的起点。