一、HttpClient与HttpURLConnection,URLConnection HttpURLConnection继承URLConnection,底层socket,最原始通信,使用 HttpURLConnection 发起 HTTP 请求最大的优点是不需要引入额外的依赖。但无法提供额外的功 ...
分类:
Web程序 时间:
2020-02-19 13:31:56
阅读次数:
303
问题描述:在客户端电脑,用非administrator本地用户登陆系统,访问文件服务器共享时没有弹出输用户名和密码的窗口,而是直接进入共享枚举,但没有任何访问权限。如果在客户端电脑用administrator本地用户登陆系统,则一切正常,弹出用户名密码输入窗口,权限正常。同时,文件服务器上的本地组策略里的“网络访问:本地账户的共享和安全模型”设置为“经典-对本地用户进行身份认证,不改变其本来身份”
分类:
其他好文 时间:
2020-02-18 20:31:22
阅读次数:
285
get请求 get请求的基本使用 // 1. 打开浏览器,创建HttpClient对象 CloseableHttpClient httpClient = HttpClients.createDefault(); // 2.输入网址,发起get请求创建HttpGet对象 HttpGet get = n ...
分类:
其他好文 时间:
2020-02-15 09:18:05
阅读次数:
80
## 代码部分```javaimport org.apache.http.HttpEntity;import org.apache.http.client.methods.CloseableHttpResponse;import org.apache.http.client.methods.Http... ...
分类:
编程语言 时间:
2020-02-13 17:02:49
阅读次数:
89
修改nginx.conf,禁止网络爬虫的ua,返回403 添加agent_deny.conf配置文件 #禁止Scrapy等工具的抓取 if ($http_user_agent ~* (Scrapy|Curl|HttpClient)) { return 403; } #禁止指定UA及UA为空的访问 i ...
分类:
其他好文 时间:
2020-02-12 18:38:56
阅读次数:
84
今天继续学习webmagic爬虫技术,组件包含: 1.Downloader Downloader负责从互联网上下载页面,以便后续处理。WebMagic默认使用了Apache HttpClient作为下载工具。 2.PageProcessor PageProcessor负责解析页面,抽取有用信息,以及 ...
分类:
其他好文 时间:
2020-02-11 00:30:29
阅读次数:
76
SolrJ 是操作 Solr 的 Java 客户端,它提供了增加、修改、删除、查询 Solr 索引的 Java 接口。SolrJ 针对 Solr 提供了 REST 的 Http 接口进行了封装, SolrJ 底层是通过使用 HttpClient 来完成 Solr 的操作。12345678910111... ...
分类:
其他好文 时间:
2020-02-09 09:36:35
阅读次数:
69
这个是C#5中的新特性,当遇到await时,会从线程池中取出一个线程异步执行await等待的操作,然后方法立即返回。等异步操作结束后回到await所在的地方接着往后执行。await需要等待async Task ...
1.HTTP与HTTPS区别 HTTP协议默认采用80端口 HTTPS协议默认采用443 HTTPS相较于HTTP协议更安全一些,采用SSL+安全证书,但是效率低 2.使用代码格式模拟HTTP请求(HTTPClient) 2.1 使用HttpClient模拟get请求 //get请求 public ...
分类:
Web程序 时间:
2020-02-06 14:28:28
阅读次数:
97
直接干货: public class HttpClientHelper { // <summary> /// post 请求 /// </summary> /// <param name="url"></param> /// <param name="xmlString"></param> /// ...
分类:
Web程序 时间:
2020-02-05 23:17:54
阅读次数:
122