?898
码龄11年
求更新 关注
提问 私信
  • 博客:22,275
    22,275
    总访问量
  • 24
    原创
  • 1
    粉丝
  • 1
    关注
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:广东省
加入CSDN时间: 2014-07-02
博客简介:

qq_17172105的博客

查看详细资料
个人成就
  • 获得2次点赞
  • 内容获得1次评论
  • 获得0次收藏
  • 博客总排名780,318名
创作历程
  • 24篇
    2016年
成就勋章
TA的专栏
  • Python爬虫
    1篇

TA关注的专栏 0

TA关注的收藏夹 0

TA关注的社区 5

TA参与的活动 0

创作活动更多

AI 镜像开发实战征文活动

随着人工智能技术的飞速发展,AI 镜像开发逐渐成为技术领域的热点之一。Stable Diffusion 3.5 FP8 作为强大的文生图模型,为开发者提供了更高效的图像生成解决方案。为了推动 AI 镜像开发技术的交流与创新,我们特此发起本次征文活动,诚邀广大开发者分享在 Stable Diffusion 3.5 FP8 文生图方向的实战经验和创新应用 本次征文活动鼓励开发者围绕 Stable Diffusion 3.5 FP8 文生图方向,分享以下方面的内容: 1. 技术实践与优化 - Stable Diffusion 3.5 FP8 模型架构解析与优化技巧 - 文生图生成效果的提升方法与技巧 - 模型部署与加速策略,例如使用 Hugging Face、Diffusers 等工具 - 针对特定场景(例如二次元、写实风)的模型微调与定制化开发 2. 应用场景探索 - Stable Diffusion 3.5 FP8 在不同领域的应用案例分享,例如游戏设计、广告创意、艺术创作等 - 利用 Stable Diffusion 3.5 FP8 实现图像编辑、图像修复、图像增强等功能的探索 - 结合其他 AI 技术(例如 NLP、语音识别)构建更强大的应用 3. 创新应用与思考 - 基于 Stable Diffusion 3.5 FP8 的创新应用场景设计 - AI 镜像开发的未来发展方向的思考与展望 - 对 AI 镜像开发伦理、安全等问题的探讨

37人参与 去参加
  • 最近
  • 文章
  • 专栏
  • 代码仓
  • 资源
  • 收藏
  • 关注/订阅/互动
更多
  • 最近

  • 文章

  • 专栏

  • 代码仓

  • 资源

  • 收藏

  • 关注/订阅/互动

  • 社区

  • 帖子

  • 问答

  • 课程

  • 视频

搜索 取消

爬取小说网站小说信息以及内容

import requests,random,re,timefrom bs4 import BeautifulSoupfrom tomorrow import threadsurls=['http://www.aiquxs.com/modules/article/toplist.php?sort=news&page=%d'%i for i in range(30,2773)]#全部链接
原创
博文更新于 2016.12.31 ·
2499 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

爬取豆瓣书籍 --开始使用多线程

from bs4 import BeautifulSoupimport requests,random,timefrom tomorrow import threadss=requests.Session()#设置随机头:def h():header = [{"User-Agent": "Mozilla/4.0 (compatible; MSIE 6.0; Window
原创
博文更新于 2016.12.31 ·
451 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

知乎2

import requests,re,json,os,random,timefrom bs4 import BeautifulSoupdef header():headers = [{"User-Agent": "Mozilla/5.0 (iPhone; U; CPU iPhone OS) (compatible; Googlebot-Mobile/2.1; http://www.
原创
博文更新于 2016.12.29 ·
603 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

知乎1

import requests,re,json,os,random,timefrom bs4 import BeautifulSoupwith open('d://zhihu//zimei//followers_info.txt','r') as f:    f=f.read().strip().split('
')with open('d://heade
原创
博文更新于 2016.12.29 ·
518 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

淘女郎

import re,os,random,time,requestsfrom urllib import requestfrom bs4 import BeautifulSoupdef h(url):    head = [    {"User-Agent": "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; Aco
原创
博文更新于 2016.12.29 ·
649 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

淘宝——手机

import re,requests,os,json,timefrom bs4 import BeautifulSouph={'user-agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.103 Safari/537.36'}s=requ
原创
博文更新于 2016.12.29 ·
589 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

天猫

import re,requests,os,json,timefrom bs4 import BeautifulSoupfrom selenium import webdriverfrom selenium.webdriver.common.desired_capabilities import DesiredCapabilitiesdcap = dict(DesiredCapab
原创
博文更新于 2016.12.29 ·
439 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

诸天至尊小说

import re,os,randomfrom urllib import requestfrom bs4 import BeautifulSoupfrom functools import reduceurl='http://www.aiquxs.com/read/50/50271/index.html'req=request.Request(url)res=reques
原创
博文更新于 2016.12.29 ·
661 阅读 ·
1 点赞 ·
1 评论 ·
0 收藏

美女图片

from urllib import requestimport re,timeclass spidermain(object):    def __init__(self):        self.urls=urldownload()        self.parser=htmlparser()        self.output=output()    def
原创
博文更新于 2016.12.29 ·
2890 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

简书

from selenium import webdriver  from bs4 import BeautifulSoupimport requests,re,os,timedriver = webdriver.PhantomJS()  urls=["http://www.jianshu.com/search?q=Python+selenium+PhantomJS&page=%d&
原创
博文更新于 2016.12.29 ·
467 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

豆瓣分类排行电影信息

import requests,os,re,time,randomfrom bs4 import BeautifulSoupdef header():    headers = [    {"User-Agent": "Mozilla/5.0 (Android; Mobile; rv:27.0) Gecko/27.0 Firefox/27.0"},    {"User-Agen
原创
博文更新于 2016.12.29 ·
537 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

获取豆瓣分类排行电影的URL

from bs4 import BeautifulSoupfrom selenium import webdriverimport re,timedriver = webdriver.Chrome(executable_path=r'E:\rj\Chrome\chromedriver.exe')with open('f://ty.txt','r') as f:f=f.read(
原创
博文更新于 2016.12.29 ·
1189 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

获取煎蛋网图片url

import requests,re,random,timefrom bs4 import BeautifulSoupurls=['http://jandan.net/ooxx/page-%d#comments'%i for i in range(1501,2281)]def header():    headers = [    {"User-Agent": "Moz
原创
博文更新于 2016.12.29 ·
716 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

代理IP

from selenium import webdriverimport requests,refrom bs4 import BeautifulSoupurls=['http://www.kuaidaili.com/free/inha/%d/'%i for i in range(1,33)]def paser(url):    print(url)    m=reques
原创
博文更新于 2016.12.29 ·
361 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

猎聘

import requests,os,re,time,random,asynciofrom bs4 import BeautifulSoupimport urllib.parse#from selenium import webdriverdef header():    headers = [    {"User-Agent": "Mozilla/5.0 (Android
原创
博文更新于 2016.12.29 ·
444 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

拉钩网

import requests,re,time,random,os,pinyinfrom bs4 import BeautifulSoupm=requests.get('http://www.lagou.com/').content.decode('utf-8')bs=BeautifulSoup(m,'lxml')n=bs.find("div","mainNavs").text
原创
博文更新于 2016.12.29 ·
374 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

牛仔网股评

import requests,os,re,random,timefrom bs4 import BeautifulSoupdef header():    headers = [    {"User-Agent": "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.
原创
博文更新于 2016.12.29 ·
554 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

联盟王者

import os,requests,re,randomfrom bs4 import BeautifulSoupdef header():    headers = [    {"User-Agent": "Mozilla/5.0 (Android; Mobile; rv:27.0) Gecko/27.0 Firefox/27.0"},    {"User-Agent": "
原创
博文更新于 2016.12.29 ·
571 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

登录知乎

import requestswith open('d://cookie.txt','r') as f:cookies={}for line in f.read().split(';'):name,v=line.strip().split('=',1)cookies[name]=vs=requests.Session()url='http://www.z
原创
博文更新于 2016.12.29 ·
1255 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

meizitu美女URL

#http://www.meizitu.com/a/4000.htmlimport urllib.request,socket,re,sys,osf=open('d:\\3.json','a')a=set([])for i in range(5366,5380):    url='http://www.meizitu.com/a/'+str(i)+'.html'    pr
原创
博文更新于 2016.12.29 ·
4649 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏
加载更多