关于 云阳县红灯区有大保健服务〖8843O306VX〗服务真实呕把浊 的搜索结果,共1327
s****d 2018-07-11
亿元级用户分析
限制客户梦想的是老旧系统是否支持常见协议,还底层工程师能否推动上层业测试和变动。 API调用PaaS——API就是不可控过程的黑箱,客户没预算没精力就盲目信任厂商。客户精力就做多冗余校验,预算就做专资源池部署;未来厂商还会自定义SLA标准——部分API连等待超时都没定义。 版本发布和数字化转型——无论是微观的版本发布还是宏观的数字化转型,其都和上没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,厂商要帮客户推动IT技术革新。 5.输出分析 厂商输出给客户的即端IT资源,也平台输出。是个比资源更难量化的概念,我只引一火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以厂商要做好咨询规划。 明晰验收--项目的施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是护。 友好接口--面对亿元金主,厂商的下限是类比传统IDC,要金主伺候舒了就要学IOE类集成商。
M****点 2018-07-10
中国计算现状——产品篇
CDN是最早出现也是最成熟的计算,它下列迷人的特点给计算行业的未来立下标杆: 客户没学习成本,肯付费、懂IT常识就能接入,所客户都认同使用CDN能节省成本提高质量。 客户没对接成本,可以随时更换其他厂商,或默认即使用多个厂商,普通项目不需要高级售前、解决方案和质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,不了切走就行,甚至专门的中立CDN监测的平台。 虽然业内对CDN生意评价不高,认为这就是卖资源,但每个平台都将CDN收入列为重要单项,成熟的模式催熟了巨蛋糕。 关于Serverless的介绍,我建议家搜一下ZStack张鑫的那篇文章。Serverless的之处在于要求程序为自己进行改造,其他强调按需付费的计算只是快速释放资源的小戏,Serverless才是正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其SaaS产品和狭义的计算没一毛钱关系,广义的计算连设备租赁和人员外包都能算进去吹水框架,自然也给SaaS预留了位置。
h****e 2018-07-10
程序:我从哪里来?
Check Agent:提供BNS例的康检查功能,用户通过在Web页面对每一个例配置康检查的方式,机器上的Check Agent会主动探测所例的运行状况,并将康检查的结果上报给Cache层,同时更新数据库内容。 总结 BNS系统满足间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的问题。 今天我们一起聊了百度Noah智能运维产品中的BNS系统,目前系统还在持续迭代和优化中,若您想进一步了解BNS问题,欢迎家积极留言。
雪****魁 2018-07-11
危险背后的机遇--故障危机分析
对于落是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为厂商总是比甲方的际损失更小,甲方无法触及厂商能倒腾出故障的部门。甲方只能根据厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。商誉分为企业商誉和个人商誉,厂商的企业商誉都积淀不足,胜者也是比烂赛中靠友商更烂胜出的,和IDC/CDN的比优赛无法相提并论。客户在吃够了厂商的亏以后,会选择信任能个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 个客户非常信任某个小销售,他告诉该销售,虽然某高层合作,某也说报价肯定比某小低5%;但是某机制问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该小快速切过来并坐站住了,这份暗中相助就是靠个人商誉带来的信任。 我和客户谈故障的时候,喜欢详细故障原因刨析给客户,企业客户是讲道理的,不要糊弄ToC用户的手段来对付ToB客户。
追****圣 2018-07-11
给书记省长讲清楚计算
第三类是外企厂商,这类厂商是被广阔的中国市场吸引过来的,也兼顾外企中国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们什么合作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最的优点和缺点都是为政府和国企为生,他们可以买技术搭建出平台,但他们建好平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 计算不是万能药,它无法解决哪些问题。 在地方政企看来,计算只是一种商业形式,不能对它报以不切际的期望值。 计算行业不需要量雇佣本地劳动力,无法解决批就业问题;计算核心员工会呆在一线城市远程操控,很难将计算人才引进到当地。 计算不会产生污染,所以不用考虑环减排问题,但其带来的环节能问题很严重,每个数据中心都会占用量电力。 对于四线城市政府和中小型国企,因为现困难资源限是搞不了计算的;二三线城市和型国企才能提供计算公司感兴趣的资源。
w****0 2018-07-11
单机房故障自愈-黎明之战
同时流量调度也无法使得恢复正常。 要求:将拆分为若干不同的逻辑单元,每个逻辑单元处于不同的物理机房,均能提供产品线完整。 3.不满足N+1冗余 描述:任意单个机房故障时,其余机房剩余容量不足以承担该机房切出的流量。 问题:流量调度导致其余机房过载,造成多个机房故障,造成更范围的影响。 要求:容量建设需要对于每个逻辑单元都要明确的容量数据,并具备N+1冗余,即任意机房故障情况下,其余机房均可承载这部分流量,同时需要变化时及时更新数据和扩容,避免容量数据退化。同时对于流量的变化趋势,也需要提前的预估,为重事件流量高峰预留足够容量(如节日、运营、假期)。 4.关联强耦合 描述:上下游使用固定IP或固定机器名进行直接连接。 问题:单机房故障发生时,关联的上下游之间无法进行快速的流量调度止损。 要求:线上关联不允许使用固定IP或机器名链接,需使用具备流量调度能力的上下游连接方式以现上下游依赖解耦,下游发生单机房故障,可以快速调整路由比例现止损。
m****t 2018-07-11
设计中立公管平台
比如说“选择可用”功能可以展示到界面上,也可以持默认;“设置修改密码”功能可以直接带上短信验证通道开发完成,也可以用户发一次邮件就代为操作一次;至于“配置升级”等功能,做功能接口并不难,难得是供应商的计费策略并不统一,并且管平台的计费系统变得复杂了。 硬盘和IP/带宽的设置很简单,VPC和安全组就要多考虑了。如果平台面对的客户需求很简单,那可以每个用户默认只一个VPC一个子网就可以现基本功能;NAT端口映射、VPC互联、VPN路由等高级功能都是可选功能。当前安全组功能繁琐而混乱,部分客户需要的只是管控对外开放端口。 负载均衡是平台唯一必备的PaaS,因为VPC环境下很难做keepalived和heartbeat。客户在VPC里只能搭建没HA的LB,还不如LB整体外抛给平台解决。从技术上说负载均衡必备的是按源IP分配的TCP负载均衡,让这个负载均衡主要做HA用,后端可以再接用户自定义的LB;但是各平台都已经支持HTTP/HTTPS/UDP负载均衡,管平台可以一开始就四七层负载均衡功能都开放给用户。
嘟****y 2018-07-11
型企业适用的平台账户体系
这个账户只是为了让客户低成本的获取,不包含客户给供应商的任何承诺,双方的权利义要看商合同。 第二.账户内资源隔离 企业客户尽量会将资源集中采购,在采购IDC/CDN这类简单时不用担心资源混淆。但套用过去管理虚拟机的经验,管理IaaS和PaaS时要资源池隔离,不同部门和项目的主机资源要分别计费和管理。 一个很常见的场景是,人事部的OA系统申请了15万主机费用,生产车间的ERP和销售部的CRM系统不设上限,外部客户A项目预算是50万,B项目是200万,等等等等。 如果没资源池的概念,就是一个账户管所资源的“通铺”模式,客户要脚趾头都掰完了才能算清各项目的消费金额;万一平台调整了资源价格,较的客户又要从头重算一次。 这个“通铺”最尴尬的不是计费繁琐,而是一个账户下所资源毫无权限隔离,客户或者只一个人去登录平台,或者将不同业注册完全孤立的账户。互联网公司无法理解传统企业和自然人关的流程是多沉重,客户选一个平台管理员完成所操作,客户的项目越多管理员员就越晕越累。
小****园 2018-07-10
让PB级存储不再神秘
存储里都是多媒体数据,谁敢盗播打官司就好;日志文件加密了就用不了数据分析了,但不挂个人信息的基因测序样本被偷了也不怕。如果客户的特别害怕丢数据,平台确没手段能自证清白,谁偷过用户数据只能听业内风闻。 正让用户头疼的是平台方会根据计费日志估算你的业规模,就像小安总共能看到你何时出门一样。据不可靠传闻,某厂商本来能拿到某厂商母公司数亿美元投资,自吹数据量数PB,该司投资部去调了一下他们的消费金额就取消投资了。单一个消费总金额就这么麻烦,访问日志可以看文件数量、用户规模分布和致的动作类型,一个新兴企业最好还是分散在两个厂商那里,毕竟他们两家不能核对你的账单。 最后一条就是些领先厂直接压制,故意做技术无关的不兼容、甚至拒绝、甚至从其他层面正面打压业。这里就不举例了,太明显针对单一厂商。如果只是技术不兼容那算和其他平台恶意竞争,如果到了平台明抢客户自身业的阶段,技术采购决策人请风险告知公司决策层,该妥协还是硬扛不是你的职责范围。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
它屏蔽了底层繁杂的管控逻辑,提供简化接口给上层系统NoahEE调用,使上层系统更好更快地释放价值。 Q这么优秀的系统到底是如何现的呢? AHALO系统采用主从架构,分为Master端和Agent端。 Master端主要做复杂的任调度和管控逻辑,并且所功能都是模块化设计,用户可以根据自己的需求定制安装,包括虚拟化容器管理,应用包管理、部署、扩缩容、拓扑搭建和活,集群控制等。 Agent端则以简单为原则,弱化繁琐功能,仅作为任的执行器,其中的supervisor组件,结合父子双进程原理,做到自升级和自活,运维人员的工作量降到最低。 整个系统的工作流程也十分简洁优雅!Agent通过定期心跳的方式,与Master进行通信,在心跳发包中发送本机状态信息,在心跳回包中获取Master期望的本机状态plan,并期望plan与本地际plan进行对比,针对差异的地方做相应修改,使二者持一致,从而证集群中所机器最终状态一致。 总之一句话,一朝HALO在手,从此不用发愁。所运维需求,直接调用接口。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
东方的梦没法子不醒了。----老舍《断魂枪》 计算潮到来了,我IT技术像五虎断魂枪一样收起来了。我不会将它压到箱底,偶尔我也会练练聊聊,纪念一下那个搞技术的黄金时代。 本文聊个很嚼头的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期小内存器一般内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板都是BIOS引导,也是UEFI引导,但从器用户看别也不。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
干货概览 在型互联网公司中,单机房故障因为其故障时间长、影响范围,一直是互联网公司运维人员的心头之痛。在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各互联网公司被披露的故障事件,单机房故障层出不穷。
l****m 2018-07-10
五年前的预言——2012年计算时代的运维职位展望
生产领域的公司因为运维涉及到在在的钱,所以运维人员待遇高(都是专技术难培养)、做的事情少(自发做事多了会出错,不如找厂商技术支持),只是跳槽的难度比通用运维要一些(都是专技术不通用) 4、彻底转型,做和计算机无关的工作;选这条路的人一部分是自己觉悟或巧机缘,但另一部分人是的适应不了环境变化,希望各位不要被淘汰掉。 最后总结一下,计算是不可阻挡的历史趋势,它还给了运维五到十年的时间去修正自己的职场规划,我们可以顺势而为也可以激流勇进,但不可得过且过随波逐流最终。 天行,君子自强不息。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
我们很难成功调试NTPD,会装NTPD又没会装LAMP可以拿去吹牛,时间长了NTPD就背上黑锅了。 TOP10的互联网公司和上亿国家级项目里用ntpdate+crond,上一代架构师为什么这个误会无人深究,下一代人将误会固化为偏见,新一代人将偏见神化为迷信。 但无论误会、偏见还是迷信,时间跃变、回退和停滞对应用壮性和业安全性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见微知著和防微杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏门科普,而是希望进阶工程师们多考虑一下如何规避这类误会?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理特性,同事也不会知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 的精力都用到做业逻辑,你只是个编程语言翻译机而已;自己主动观测技术环境依赖,资格能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察环境,也能少些沟通成本,少走一些冤枉路,多一份自信和自尊。
小****君 2018-07-11
落地--谈IT就业趋势
3.公版在细节打磨上,肯定没精英定制支撑平台那么精细贴切,但对于新公司新项目来说,一个能跑起来的系统就够用了。很多技术精英也觉得打磨个小系统太累,图省事就买凑合用了。4.要做好后台支撑并不只依靠精英们埋头苦干,巧妇难为无米之炊。厂商集采优势,厂商多给点资源就能省下很多优化工作;部分情况厂商还数据优势,比如基于本站数据做风控需要反复调试,而对接厂商外部参考画像会简单很多。5.技术牛都是让变态业需求给压出来的,如果公司技术牛,那各种需求就来了,但如果没技术牛,公司也会压缩自己的IT难度。比如搞促秒杀就要准备2000万费,业部门就会掂量成本。客户要使用PaaS就要按照厂商的是数据和业的格式约定。我们看到越来越多的证据,了对象存储就不用招存储工程师,了鉴黄和人脸识别就不用自己推演模型,是反作弊系统就不用自己研究刷单,了IM就不用自己做openfire。正的行业精英是不会护食眼前这碗饭,找到问题最优解比住铁饭碗重要的多。
x****3 2018-07-10
中国计算现状——采购篇
2、稳定性于功能需求 前文说过,厂商卖的绝部分是替代性产品,主机是替代物理机的,存储是替代存储柜的。过去的产品功能再挫、价格再高也能用,你的产品优势是锦上添花,但你这刚开发出来的产品稳定性如何?即使只是常规感冒,你愿意让习医生练手吗? 3、价格可描述 价格不同于价值,价值是灵活解释的,而价格是固定的单价和数量。先说单价,IaaS资源的头是公主机,这里不可说不可测的硬件超卖和漏洞百出的SLA,谁能证你60元的主机就比人家70元的便宜?客户用私方案吧,你的软件没专利和著作权,人力报价没施工人日规划表。PaaS层的天然按量付费,但数量该买多少个该如何预估?在这类企业里按需付费并不讨喜,钱花多了谁来结账,钱花少了是不是业萎缩了,风传某些超低价中标的CDN,就是靠虚报资源数量来维持品质的。 4、尽量将责任外抛 客户肯给你掏钱就已经尽到自身责任了,不要让客户承担因为选你而产生的额外责任。如果客户放弃资质和案例需求、自担稳定性风险、自己评估总价格,厂商卖就能像话费充值一样简单。
无****禾 2018-07-11
客户需求引导管理--战型IT太极拳
前言 多年之前,我要搜集平台技术运营数据,就主动了解客户平台的运行状况。然后我就发现来到了暴怒战场,客户的需求同事们都承诺下来了,但一年半载都没人做。我闲不住就开始救火,客户十个要求我会拒绝七个,两个慢慢做,一个承诺立刻解决。客户并没投诉我,倒是离职的时候多个客户邀请面谈并发出了Offer。 这几年我一直“客户提十个需求我会拒掉七个”当做招牌技能,今天就聊聊客户需求为什么要引导,该如何引导。 平台卖的都是,靠销售体系打下单子来只是万里长征第一步。如果厂商做不好,公消费额,私可以换别人家的软件授权;如果厂商做好客户的技术,完全可以从备胎公变为主力公,私群集也月月扩容。各位投标中标的CDN厂商已经领教过客户的切量神功了,而主机等资源的切换也会越来越简单方便。 过去的案例 我们先看四个生产环境案例。 案例1.外售型私客户要虚拟机的内网带宽从1G扩充到4G,沟通后发现是最终用户要在单虚拟机上跑流量应用。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
TOP