微博咋登陆手机登陆出问题

iOS7微博无法登陆如何解决方法
互联网 & 发布时间: 08:55:18 & 作者:佚名 &
很多人升级iOS7之后会发现各种各样的问题,其中之一就是微博无法登陆,那么如何解决iOS7微博无法登陆问题?下面就一起来看看吧
很多人升级iOS7之后会发现各种各样的问题,其中之一就是微博无法登陆,作为微博控来说,微博不能登陆怎么能忍!那么如何解决iOS7微博无法登陆问题?
出现这样的情况是因为新系统无法输入验证码导致,只要在帐号&&帐号设置&&登录保护里把所有的免验证地点都删除,再按保存。接着新浪会请求向你手机发送一条短信,在弹出的对话框里输入短信里的验证码即可取消登录保护。搞定再登陆一下就可以了。
大家感兴趣的内容
12345678910
最近更新的内容android系统手机上微博,但总说登陆出错什么意思??
按时间排序
应该是网络问题,重启手机试一试,或者卸载重新安装一下,望采纳谢谢!
我也是这样啊。我卸载了重新下载还是不行
不知道怎么回事
会不会版本有问题
感谢您为社区的和谐贡献力量请选择举报类型
经过核实后将会做出处理感谢您为社区和谐做出贡献
确定要取消此次报名,退出该活动?
请输入私信内容:新浪微博惊现大面积故障 网友:报复微信 - 手机中国
新浪微博惊现大面积故障 网友:报复微信
作者:闫瑾
  【中国&软件】从昨天晚上11点左右开始,客户端出现大面积故障,不少用户反应自己无法登陆,即使登陆也会被强制退出,弹窗提示:你的账号验证失败,请重新登陆。目前此故障仍在修复的过程中,依旧有用户无法正常登录,大家戏称,微博是用这种方式求关注吗?  自微博出现障碍后,有谣言传出,凡是参与过红包照片活动就会感染病毒,微博账号会被盗取并出现频繁掉线的现象,不过随后大家反应过来这只是个玩笑而已。  1月26日晚5点,微信尝试上线红包照片功能,引发大量网友关注,不过随后该功能由于涉黄且存在漏洞被匆忙下线,但晚上11点左右再次上线,且功能增加玩法也有变化,半个小时后此功能再次下线。红包大战已经开始,微博、以及QQ都以做好准备,唯独微信迟迟没有动静,不过新功能刚上线就收获了如此高的关注度,看来今年微信取胜的几率还是相当大的。
用其他账号登录:
请稍后,数据加载中...
请稍后,数据加载中...
上市时间:2018.05
上市时间:2018.06
上市时间:2018.05
上市时间:2018.06
上市时间:2018.03
上市时间:2018.06
上市时间:2018.06
上市时间:2018.06
上市时间:2017.09
上市时间:2018.05
上市时间:2018.06
上市时间:2018.05
上市时间:2018.05
上市时间:2018.06
上市时间:2018.06
上市时间:2018.06
上市时间:2018.06
上市时间:2018.06
上市时间:2018.05
上市时间:2018.05
热门搜索词
Copyright & 2007 -
北京沃德斯玛特网络科技有限责任公司.All rights reserved 发邮件给我们京ICP证-070681号 京ICP备号 京公网安备:京网文[8号在 SegmentFault,学习技能、解决问题
每个月,我们帮助 1000 万的开发者解决各种各样的技术问题。并助力他们在技术能力、职业生涯、影响力上获得提升。
问题对人有帮助,内容完整,我也想知道答案
问题没有实际价值,缺少关键内容,没有改进余地
代码如下,不知道为什么一直不能成功登录
&# -*- coding: utf-8 -*-
import scrapy
import requests
#import urllib
from bs4 import BeautifulSoup
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapy.loader import ItemLoader
from scrapy.loader.processors import MapCompose, Join
from scrapy.http import Request,FormRequest
from getweibo.items import InformationItem,TweetsItem
loginURL = "https://login.weibo.cn/login/"
#获得验证码等信息
def get_captchainfo(loginURL):
html = requests.get(loginURL).content
bs = BeautifulSoup(html,"lxml")
#注意通过bs.select元素寻找对象,返回的是列表对象
password_name = (bs.select('input[type="password"]'))[0].get('name')
vk = (bs.select('input[name="vk"]'))[0].get('value')
capId = (bs.select('input[name="capId"]'))[0].get('value')
#print password_name,vk,capId
captcha_img = bs.find("img", src=re.compile('http://weibo.cn/interface/f/ttt/captcha/')).get('src')
print captcha_img
#captchaid可以从验证码图片地址中直接截取获得
#urllib.urlretrieve(captcha_img, 'weibo_spider/image/captcha.jpg')
#print "captcha download success!"
captcha_input = raw_input("please input the captcha\n&")
return (captcha_input,password_name,vk,capId)
class WeiboSpider(CrawlSpider):
name = 'weibo'
allowed_domains = ['weibo.cn']
start_urls = ['http://weibo.cn/dafendi']#先暂时确定精分君的微博,之后start_urls可以从文件提取
Rule(LinkExtractor(restrict_xpaths='//*[@id="pagelist"]/form/div/a')),
Rule(LinkExtractor(restrict_xpaths='//*[contains(@href,"repost")]'),callback='parse_item')
headers = {
"Accept": "text/html,application/xhtml+xml,application/q=0.9,image/webp,*/*;q=0.8",
"Accept-Encoding": "gzip, deflate, br",
"Accept-Language": "zh-CN,q=0.8",
"Connection": "keep-alive",
"Content-Type":" application/x-www-form-urlencoded",
"User-Agent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0. Safari/537.36",
"Referer": "https://login.weibo.cn/login/"
# Start on the welcome page
def start_requests(self):
meta = {'cookiejar': 1},
headers=self.headers,
callback=self.parse_login)
# Post welcome page's first form with the given user/pass
def parse_login(self, response):
print 'Preparing login'
captcha=get_captchainfo(loginURL)
print captcha
return FormRequest.from_response(
response,#from loginURL
method="POST",
meta = {'cookiejar' : response.meta['cookiejar']},#获取cookies
headers = self.headers,
formdata = {
"mobile": "帐号",
captcha[1]: "密码",
"code": captcha[0],
"remember":"on",
"backurl": "http%3A%2F%2Fweibo.cn",
"backtitle":u'手机新浪网',
"tryCount":"",
"vk": captcha[2],
"capId": captcha[3],
"submit": u'登录'},
callback = self.after_login,
dont_filter = True
def after_login(self, response) :
for url in self.start_urls :
yield self.make_requests_from_url(url)
def parse_start_url(self, response):#用来处理初始response
response.xpath('/html').extract()
print html
# Create the loader using the response
l = ItemLoader(item=InformationItem(), response=response)
# Load fields using XPath expressions
l.add_xpath('id_', '//title/text()', MapCompose(lambda i:i[0:len(i)-3])),
l.add_xpath('Info','//span[contains(@class,"ctt")][2]/text()'),
l.add_xpath('Num_Tweets','//span[contains(@class,"tc")]/text()',MapCompose(lambda i: i[(i.index("[")+1):(i.index("]"))])),
l.add_xpath('Num_Follows','//a[contains(@href,"follow")]/text()',MapCompose(lambda i: i[(i.index("[")+1):(i.index("]"))])),
l.add_xpath('Num_Fans','//a[contains(@href,"fans")]/text()',MapCompose(lambda i: i[(i.index("[")+1):(i.index("]"))])),
return l.load_item()
def parse_item(self, response):
l = ItemLoader(item=TweetsItem(), response=response)
l.add_xpath('Content','//span[contains(@class,"ctt")]/text()')
#l.add_xpath('')
return l.load_item()
下边settins.py的内容
ROBOTSTXT_OBEY = False
HTTPERROR_ALLOWED_CODES = [302,]#返回400时按正常的返回对待
REDIRECT_ENABLED = False #关掉重定向,不会重定向到新的地址
DOWNLOAD_DELAY = 3
COOKIES_ENABLED = True
COOKIES_DEBUG = True
下边是输出
15:53:17 [scrapy] DEBUG: Sending cookies to: &POST https://login.weibo.cn/login/?rand=&backURL=http%3A%2F%2Fweibo.cn&backTitle=%E6%89%8B%E6%9C%BA%E6%96%B0%E6%B5%AA%E7%BD%91&vt=4&
Cookie: _T_WM=fe1bc486f14d
15:53:19 [scrapy] DEBUG: Received cookies from: &302 https://login.weibo.cn/login/?rand=&backURL=http%3A%2F%2Fweibo.cn&backTitle=%E6%89%8B%E6%9C%BA%E6%96%B0%E6%B5%AA%E7%BD%91&vt=4&
Set-Cookie: WEIBOCN_FROM= expires=Thu, 01-Jan-:01 GMT; path=/; domain=.weibo.cn
Set-Cookie: SUB=_2A2517Zg9DeRhGeVG61ER8yrEwzyIHXVXETh1rDV6PUJbkdAKLRXgkW0wSZc8S6dp1d-NlyAraSqa-1-_0Q..; expires=Tue, 09-May-:17 GMT; path=/; domain=.weibo. httponly
Set-Cookie: gsid_CTandWM=4uuCcdef1lRXUEnMtsgL1fX expires=Tue, 09-May-:19 GMT; path=/; domain=.weibo. httponly
15:53:19 [scrapy] DEBUG: Crawled (302) &POST https://login.weibo.cn/login/?rand=&backURL=http%3A%2F%2Fweibo.cn&backTitle=%E6%89%8B%E6%9C%BA%E6%96%B0%E6%B5%AA%E7%BD%91&vt=4& (referer: https://login.weibo.cn/login/)
15:53:20 [scrapy] DEBUG: Received cookies from: &200 http://weibo.cn/dafendi&
Set-Cookie: _T_WM=80e15f38a0dfb65ea7bbcd00ebcaf1c0; expires=Tue, 09-May-:19 GMT; path=/; domain=.weibo. httponly
Set-Cookie: WEIBOCN_FROM= expires=Thu, 01-Jan-:01 GMT; path=/; domain=.weibo.cn
15:53:20 [scrapy] DEBUG: Crawled (200) &GET http://weibo.cn/dafendi& (referer: https://login.weibo.cn/login/?rand=&backURL=http%3A%2F%2Fweibo.cn&backTitle=%E6%89%8B%E6%9C%BA%E6%96%B0%E6%B5%AA%E7%BD%91&vt=4)
15:53:20 [scrapy] DEBUG: Scraped from &200 http://weibo.cn/dafendi&
{'Info': [u'\u8ba4\u8bc1\uff1a\u77e5\u540d\u5e7d\u9ed8\u535a\u4e3b \u5fae\u535a\u7b7e\u7ea6\u81ea\u5a92\u4f53'],
'Num_Fans': [u'2055326'],
'Num_Follows': [u'891'],
'Num_Tweets': [u'1958'],
'id_': [u'\u7cbe\ub']}
15:53:20 [scrapy] DEBUG: Sending cookies to: &GET http://weibo.cn/repost/EDsDTFqfJ?rl=0&uid=&
Cookie: _T_WM=80e15f38a0dfb65ea7bbcd00ebcaf1c0
15:53:20 [scrapy] DEBUG: Sending cookies to: &GET http://weibo.cn/repost/EDxAwrBrG?rl=0&uid=&
Cookie: _T_WM=80e15f38a0dfb65ea7bbcd00ebcaf1c0
15:53:20 [scrapy] DEBUG: Sending cookies to: &GET http://weibo.cn/repost/EDBmajRBl?rl=0&uid=&
Cookie: _T_WM=80e15f38a0dfb65ea7bbcd00ebcaf1c0
15:53:20 [scrapy] DEBUG: Sending cookies to: &GET http://weibo.cn/repost/CsN9LnQiG?rl=0&uid=&
Cookie: _T_WM=80e15f38a0dfb65ea7bbcd00ebcaf1c0
15:53:24 [scrapy] DEBUG: Received cookies from: &200 http://weibo.cn/repost/EDsDTFqfJ?rl=0&uid=&
Set-Cookie: WEIBOCN_FROM= expires=Thu, 01-Jan-:01 GMT; path=/; domain=.weibo.cn
15:53:24 [scrapy] DEBUG: Crawled (200) &GET http://weibo.cn/repost/EDsDTFqfJ?rl=0&uid=& (referer: http://weibo.cn/dafendi)
15:53:24 [scrapy] DEBUG: Scraped from &200 http://weibo.cn/repost/EDsDTFqfJ?rl=0&uid=&
{'Content': [u':',
u' \u\u4efb\u4f55\u4e8b\u90fd\u80fd\ua\u804c\u4e1a\uff0c\u4f60\u4f1a\u\u4ec0\u4e48\u4f5c\u4e3a\u804c\u4e1a\uff1f \u200b\u200b\u200b']}
15:53:28 [scrapy] DEBUG: Received cookies from: &200 http://weibo.cn/repost/EDxAwrBrG?rl=0&uid=&
Set-Cookie: WEIBOCN_FROM= expires=Thu, 01-Jan-:01 GMT; path=/; domain=.weibo.cn
15:53:28 [scrapy] DEBUG: Crawled (200) &GET http://weibo.cn/repost/EDxAwrBrG?rl=0&uid=& (referer: http://weibo.cn/dafendi)
15:53:28 [scrapy] DEBUG: Scraped from &200 http://weibo.cn/repost/EDxAwrBrG?rl=0&uid=&
{'Content': [u'\ub\uf\u65e5\u793c\u \u200b\u200b\u200b']}
15:53:32 [scrapy] DEBUG: Received cookies from: &200 http://weibo.cn/repost/EDBmajRBl?rl=0&uid=&
Set-Cookie: WEIBOCN_FROM= expires=Thu, 01-Jan-:01 GMT; path=/; domain=.weibo.cn
15:53:32 [scrapy] DEBUG: Crawled (200) &GET http://weibo.cn/repost/EDBmajRBl?rl=0&uid=& (referer: http://weibo.cn/dafendi)
15:53:32 [scrapy] DEBUG: Scraped from &200 http://weibo.cn/repost/EDBmajRBl?rl=0&uid=&
{'Content': [u'\u\u\u5b69\u5b50\uff0c\u8fd0\u6c14\u4e00\u5b9a\u4e0d\u4f1a\u592a\u597d\u',
u' \u200b\u200b\u200b']}
15:53:36 [scrapy] DEBUG: Received cookies from: &200 http://weibo.cn/repost/CsN9LnQiG?rl=0&uid=&
Set-Cookie: WEIBOCN_FROM= expires=Thu, 01-Jan-:01 GMT; path=/; domain=.weibo.cn
15:53:36 [scrapy] DEBUG: Crawled (200) &GET http://weibo.cn/repost/CsN9LnQiG?rl=0&uid=& (referer: http://weibo.cn/dafendi)
15:53:36 [scrapy] DEBUG: Scraped from &200 http://weibo.cn/repost/CsN9LnQiG?rl=0&uid=&
{'Content': [u':\u4e00\u4e2a\u957f\u5fae\u535a\u\uff0c\u\u65e0\u804a\u53c8\u6ca1\u770b\u8fc7\u7684\u8bdd\u53ef\u4ee5\u770b\u770b[\u7f9e\u55d2\u55d2] \u200b\u200b\u200b']}
15:53:36 [scrapy] INFO: Closing spider (finished)
15:53:36 [scrapy] INFO: Stored json feed (5 items) in: wanghongmingdan.json
15:53:36 [scrapy] INFO: Dumping Scrapy stats:
{'downloader/request_bytes': 3029,
'downloader/request_count': 7,
'downloader/request_method_count/GET': 6,
'downloader/request_method_count/POST': 1,
'downloader/response_bytes': 22746,
'downloader/response_count': 7,
'downloader/response_status_count/200': 6,
'downloader/response_status_count/302': 1,
'finish_reason': 'finished',
'finish_time': datetime.datetime(, 7, 53, 36, 596076),
'item_scraped_count': 5,
'log_count/DEBUG': 27,
'log_count/INFO': 8,
'log_count/WARNING': 2,
'request_depth_max': 3,
'response_received_count': 7,
'scheduler/dequeued': 7,
'scheduler/dequeued/memory': 7,
'scheduler/enqueued': 7,
'scheduler/enqueued/memory': 7,
'start_time': datetime.datetime(, 7, 53, 2, 180831)}
15:53:36 [scrapy] INFO: Spider closed (finished)
20:11:50 [scrapy] DEBUG: Redirecting (302) to &GET http://weibo.cn/crossDomain/?g=4uegcdef1d93rkj4S3ZomfXlgec&t=&m=9144&r=&u=http%3A%2F%2Fweibo.cn%3Fgsid%3D4uegcdef1d93rkj4S3ZomfXlgec%26PHPSESSID%3D%26vt%3D4&cross=1&st=ST-MzgwMzAzNDg4MA==--tc-27ED8C8DF-1,ST-MzgwMzAzNDg4MA==--tc-BED83CC16AC311D2BBA234E8F08BBD39-1& from &POST https://login.weibo.cn/login/?rand=&backURL=http%3A%2F%2Fweibo.cn&backTitle=%E6%89%8B%E6%9C%BA%E6%96%B0%E6%B5%AA%E7%BD%91&vt=4&
20:11:50 [scrapy] DEBUG: Redirecting (meta refresh) to &GET http://weibo.cn/& from &GET http://weibo.cn/crossDomain/?g=4uegcdef1d93rkj4S3ZomfXlgec&t=&m=9144&r=&u=http%3A%2F%2Fweibo.cn%3Fgsid%3D4uegcdef1d93rkj4S3ZomfXlgec%26PHPSESSID%3D%26vt%3D4&cross=1&st=ST-MzgwMzAzNDg4MA==--tc-27ED8C8DF-1,ST-MzgwMzAzNDg4MA==--tc-BED83CC16AC311D2BBA234E8F08BBD39-1&
答案对人有帮助,有参考价值
答案没帮助,是错误的答案,答非所问
建议你在做模拟登陆的时候,打开抓包软件抓包,进行调试,这样你才能知道通过程序请求目标服务器返回的内容和你手动请求服务器返回的内容是否有差异。对于微博数据采集我也有一定的经验,我刚看了你的代码,发现和我以前写的模拟登陆微博有一定的差异,这是我的,我刚检查了还能用。我又去对比了一下我两代码的差异,发现你虽然是抓的wap版微博,但是你的UA用的是PC端的UA,所以会弹出验证码,提交的参数也不相同。你的代码出错应该是有一步跳转需要手动访问,你没有进行访问,这个你可以抓包看看。感觉现在微博wap端的反爬也开始重视起来了啊。如果想更好的理解模拟登陆微博,可以看看我的。截至现在,该方法都可用
分享到微博?
关闭理由:
删除理由:
忽略理由:
推广(招聘、广告、SEO 等)方面的内容
与已有问题重复(请编辑该提问指向已有相同问题)
答非所问,不符合答题要求
宜作评论而非答案
带有人身攻击、辱骂、仇恨等违反条款的内容
无法获得确切结果的问题
非开发直接相关的问题
非技术提问的讨论型问题
其他原因(请补充说明)
我要该,理由是:
在 SegmentFault,学习技能、解决问题
每个月,我们帮助 1000 万的开发者解决各种各样的技术问题。并助力他们在技术能力、职业生涯、影响力上获得提升。手机正常上微博,突然让我重新登陆。_百度知道
手机正常上微博,突然让我重新登陆。
手机正常在浏览微博,刷新的时候突然让我重新登陆,为什么?是不是有人在其他地方登录了我的微博?
我有更好的答案
可能是以下几种情况:1、你的手机浏览器设置了自动清理缓存,所以要重新登录;2、你的微博帐号在别的地方被登录了,所以你被迫下线;3、你没有设置自动登录或者记住密码什么的,信号不好掉线了。
采纳率:15%
肯定是信号不好,手机把缓存卡掉了
信号不好,手机把缓存卡掉了
有可能你在的地方手机信号不好。也是有这种情况的
其他1条回答
为您推荐:
其他类似问题
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。}

我要回帖

更多关于 企业微博注册 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信