首页 > 动态 > 关键词  > 中兴通讯最新资讯  > 正文

中兴通讯拟延长2018年度非公开发行A股股票股东大会决议有效期

2019-01-18 11:21 · 稿源: TechWeb

《中兴通讯拟延长2018年度非公开发行A股股票股东大会决议有效期》文章已经归档,站长之家不再展示相关内容,下文是站长之家的自动化写作机器人,通过算法提取的文章重点内容。这只AI还很年轻,欢迎联系我们帮它成长:

为确保本次发行有关事宜的顺利进行,公司于2019年1月17日召开第七届董事会第四十四次会议,审议通过《关于延长2018年度非公开发行A股股票股东大会决议有效期的议案》,提请将本次发行的股东大会决议有效期延长十二个月至2020年3月27日...

根据《中兴通讯股份有限公司2018年度非公开发行A股股票预案》确定的发行价格和定价原则,本次发行价格不低于定价基准日前20个交易日公司A股股票交易均价的90%...

......

本文由站长之家用户“TechWeb”投稿,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完整的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请联系作者获取原文。

举报

  • 相关推荐
  • 大家在看
  • 创纪录!小米通讯公开发行10亿元债券 获5.4倍超额认购

    快科技7月24日消息,小米集团副总裁,首席财务官林世伟宣布了小米创造的一个新记录。昨日,小米通讯成功公开发行科技创新 高成长产业公司债券,发行规模10亿元,期限3年,主体评级AAA。该债券全场获得5.4倍的超额认购,最终发行的票面利率2.00%,创智能制造行业企业同期限公司债的新低记录。评级AAA反映公司偿还债务的能力很强,基本不受不利经济环境的影响,违约风�

  • 中兴通讯携手中国移动,在2024MWC上海展发布AI普惠裸眼3D手机

    2024年6月26日,全球领先的通讯科技企业中兴通讯携手中国移动,在2024MWC上海展上联合发布两款全球首创的AI裸眼3D创新产品:千元普惠的中兴远航3D手机和第二代裸眼3D平板电脑nubiaPad3DⅡ。这两款产品凭借Neovision3DAnytime突破性的2D转3D技术,以及5G与AI的深度融合,为消费者带来更加沉浸、更为丰富的裸眼3D体验,展示了中兴通讯在裸眼3D技术和应用的深刻理解和创新实力。此次发布的两款全球首创的AI裸眼3D创新产品,中兴远航3D手机配置6GB128GB,售价为¥1499,于6月26日起,在中兴手机官方商城即刻开售、中国移动营业厅陆续开售,nubiaPad3DⅡ配置12GB256GB,售价为¥6499,于6月26日起,在中国移动营业厅陆续开售。

  • 中兴通讯亮相MWC上海展,全场景AI终端应用与裸眼3D新品惊艳全场

    6月26日,在2024MWC上海世界移动通信大会上,中兴通讯推出了AI驱动的全场景智慧生态3.0,并展示了包括手机、平板、笔记本、PC及移动互联产品在内的全队列多形态的AI终端。围绕“AIforAll”的产品战略与理念,终端业务六大AI主题展示吸引了众多关注,内容覆盖全球领先的AI裸眼3D、AI同声传译和方言互译、AI安全反诈、AI智慧商务和创作、红魔AI游戏魔方以及AI魔法影像等应用和产品。中兴通讯的终端业务不仅聚焦科技创新,更致力于推动科技普惠,从高端旗舰机型到百元智能手机,实现AI技术的商用,旨在让每一位用户享用AI和5G,享受科技带来的愉悦。

  • 再见,ICQ:即时通讯先驱结束28年使命 正式停止服务

    曾经风靡全球的即时通讯软件ICQ正式停止服务,其官网显示"Servicestoppedworking",标志着这款通讯软件28年的使命正式画上句号。ICQ,全称"ISEEKYOU",于1996年11月16日由以色列公司Mirabilis推出。它不仅改变了人们的交流方式,也为后来的社交媒体和即时通讯应用奠定了基础。

  • iOS 18 公测版发布,教你如何安装 iOS 18公开测试版

    iOS18和iPadOS18的公测版终于发布了,喜欢尝鲜的朋友们可以免费下载试用啦!虽然公测版可能会有一些小问题,但如果你想先体验最新的iPhone功能,这绝对是个不错的机会。你需要确认自己的设备至少更新到iOS16.4。iOS18带来了许多新功能,其中最受瞩目的就是AppleIntelligence的人工智能功能,包括AI照片编辑和智能助手,可以根据你的日历和邮件上下文来回答问题,这些新功能虽然很吸引人,但要等到秋天才会全面上线。

  • 中软国际闪耀华为开发者大会2024

    2024年6月23日,华为开发者大会圆满落幕。本次盛会上,中软国际作为大会最高级赞助合作伙伴,受邀参加联合发布、高峰论坛、专题演讲、星光直播间、展区展示等多个环节,并自主举办分论坛,和万千专家、开发者们交流技术,碰撞思想。2017年,中软国际成为华为云首批同舟共济合作伙伴,如今已经进入第7年。

  • 英特尔闪耀2024稀土开发者大会:共绘科技未来蓝图!

    6月28日至29日,「稀土开发者大会」在北京圆满落幕,这场为期两天的盛会以“代码不止掘金不停”为主题,汇聚了业界精英的璀璨光芒。活动特邀5位重量级主论坛嘉宾、12位卓越出品人以及超过70位技术先锋,精心策划了10大前沿主题分论坛,跨越地域界限,携手引领技术潮流,深入剖析行业最新趋势与未来发展方向。无论是科技爱好者、专业人士还是普通观众,都能在这里�

  • 诗妍悦亮相2024非公整美学术年会,实力开启骨相抗衰新未来

    2024年7月5日至7日,由中国非公立医疗机构协会整形与美容专业委员会、中国整形美容协会医线技术分会共同主办的“2024年学会年会暨第三届面部年轻化综合治疗大会”在武汉光谷科技会展中心顺利召开。本次会议聚集多位行业精英,剖析国际前言医疗美容技术,围绕行业热点进行深入的分享与探讨。诗妍悦将继续深耕再生医美领域,借助科发集团的力量,加大技术研发和产品创新的投入,深度融合理论探讨与实践展示,为求美者提供更优质、安全、高效的抗衰产品。

  • 2024年快应用开发者大会即将强势开启,聚焦AI洞见未来

    AI正以飞速塑造着全新的智能化世界。在这一背景下,快应用以其强大的生态吸引力,协同成员行动,结合AI技术共同探索出一系列应用场景与技术标准。快应用始终秉持用户至上的初心,致力于构建一个开放、协作、智慧的快服务生态体系。

  • 2024快应用开发者大会亮点揭秘,携手AI共塑未来十年服务分发新格局

    8月8日,以“快意无界,与“AI”同行”为主题的2024快应用开发者大会将在北京望京凯悦酒店盛大开幕。大会核心聚焦于快应用2.0版本与AI技术的深度融合,精心策划了主论坛及四大分论坛,涵盖开发者服务和商业化策略、技术探索、多终端智联以及快游戏合作等多个前沿领域。顶尖开发者与业界领袖们将在此顶峰相见,共同沉浸于这场技术交流与创新交织的盛事之中。携手AI�

  • MrScraper:数据抓取工具,一键获取所需信息。

    MrScraper 是一个全能的网络数据抓取工具,它允许用户无需编程知识即可从各种网站上抓取数据。它通过智能技术自动提取所需信息,支持大规模请求处理,并且具备浏览器自动化功能。用户可以轻松创建抓取器,自定义选择器,并根据需求设置抓取任务。产品背景信息显示,MrScraper 被世界领先公司信赖,拥有强大的企业级性能,能够处理数百万级的数据。

  • Moneystack:人工智能可视化你的财务状况

    Moneystack是一个旨在帮助用户清晰了解当前和未来财务状况的在线工具。它通过简洁直观的界面,让用户能够轻松输入收入和支出数据,从而预测和规划自己的财务未来。该产品由Memberstack团队开发,不仅免费提供给用户,而且注重数据的安全性和隐私保护。

  • Speech to Note:将语音转化为强大的内容

    Speech to Note是一个AI驱动的语音识别工具,能够即时将口语转换为文本。它使用先进的语音转文本技术,将您的语音转换成可以编辑或分享的简洁摘要。该产品由GPT-4技术支持,旨在提升生产力并释放创造力。

  • AutoApply:AI驱动的自动化求职助手

    AutoApply是一个AI驱动的求职平台,通过自动化技术帮助用户快速申请工作,节省时间并提高求职效率。它通过分析用户的简历和求职意向,自动匹配合适的职位,并生成个性化的求职信和简历。此外,AutoApply还提供24小时服务,让用户随时随地都能申请工作。

  • llama-agentic-system:Llama 3.1模型的系统级代理组件

    Llama-agentic-system是一个基于Llama 3.1模型的系统级代理组件,它能够执行多步骤推理和使用内置工具,如搜索引擎或代码解释器。该系统还强调了安全性评估,通过Llama Guard进行输入和输出过滤,以确保在不同使用场景下的安全需求得到满足。

  • SpeechGPT2:全端到端的类人语音对话模型

    SpeechGPT2是由复旦大学计算机科学学院开发的端到端语音对话语言模型,能够感知并表达情感,并根据上下文和人类指令以多种风格提供合适的语音响应。该模型采用超低比特率语音编解码器(750bps),模拟语义和声学信息,并通过多输入多输出语言模型(MIMO-LM)进行初始化。目前,SpeechGPT2还是一个基于轮次的对话系统,正在开发全双工实时版本,并已取得一些有希望的进展。尽管受限于计算和数据资源,SpeechGPT2在语音理解的噪声鲁棒性和语音生成的音质稳定性方面仍有不足,计划未来开源技术报告、代码和模型权重。

  • Meta-Llama-3.1-405B-Instruct:多语言大型语言模型,优化对话场景。

    Meta Llama 3.1是一系列多语言的大型预训练和指令调整的生成模型,包含8B、70B和405B大小的版本。这些模型专为多语言对话用例而优化,并在常见行业基准测试中表现优于许多开源和闭源聊天模型。模型使用优化的transformer架构,并通过监督式微调(SFT)和强化学习与人类反馈(RLHF)进行调整,以符合人类对有用性和安全性的偏好。

  • Meta-Llama-3.1-405B-Instruct-FP8:多语言对话生成模型

    Meta Llama 3.1系列模型是一套预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B三种规模的模型,专为多语言对话使用案例优化,性能优于许多开源和闭源聊天模型。

  • MIT MAIA:自动化解释性代理,提升AI模型透明度

    MAIA(Multimodal Automated Interpretability Agent)是由MIT计算机科学与人工智能实验室(CSAIL)开发的一个自动化系统,旨在提高人工智能模型的解释性。它通过视觉-语言模型的支撑,结合一系列实验工具,自动化地执行多种神经网络解释性任务。MAIA能够生成假设、设计实验进行测试,并通过迭代分析来完善其理解,从而提供更深入的AI模型内部运作机制的洞察。

  • Meta-Llama-3.1-405B-FP8:多语言大型语言模型,优化对话和文本生成。

    Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B三种大小的模型,专门针对多语言对话使用案例进行了优化,并在行业基准测试中表现优异。该模型使用优化的transformer架构,并通过监督式微调(SFT)和人类反馈的强化学习(RLHF)进一步与人类偏好对齐,以确保其有用性和安全性。

  • Mermaid AI:快速高效的文本到图表生成工具。

    Mermaid AI是一个由Mermaid JS团队开发的图表生成工具,它通过文本快速生成图表,简化了文档流程,提高了团队间的沟通效率。它支持多种图表类型,包括流程图、序列图、Git图等,并且具有代码驱动的自动化功能,使得设计系统和新成员入职更加高效和易于管理。

  • OmniAI.ai:一站式AI应用部署平台。

    OmniAI是一个提供统一API体验的AI应用构建平台,支持在现有基础设施内运行,支持多种AI模型,如Llama 3、Claude 3、Mistral Large等,适用于自然语言理解、生成任务等复杂需求。

  • Zerox OCR:一种简单直观的PDF OCR工具,使用gpt-4o-mini进行文档转换。

    Zerox OCR是一个基于gpt-4o-mini的PDF文档转换工具,它通过将PDF文件转换为图像,然后利用GPT模型将图像内容转换为Markdown格式,从而实现对文档的高效OCR处理。该工具在价格上具有竞争力,并且能够提供比现有产品更有意义的结果。

  • Bing generative search:Bing的新型生成式搜索体验。

    Bing generative search是微软Bing搜索团队推出的新型搜索体验,它结合了生成式人工智能和大型语言模型(LLMs)的能力,为用户提供定制化和动态的搜索结果。该技术通过理解用户查询,审核数百万信息源,动态匹配内容,并以新的AI生成的布局生成搜索结果,以更有效地满足用户查询的意图。

  • lmms-finetune:统一的代码库,用于微调大型多模态模型

    lmms-finetune是一个统一的代码库,旨在简化大型多模态模型(LMMs)的微调过程。它提供了一个结构化的框架,允许用户轻松集成最新的LMMs并进行微调,支持全微调和lora等策略。代码库设计简单轻量,易于理解和修改,支持包括LLaVA-1.5、Phi-3-Vision、Qwen-VL-Chat、LLaVA-NeXT-Interleave和LLaVA-NeXT-Video等多种模型。

  • Open-Sora Plan v1.2:文本到视频生成领域的先进模型架构

    Open-Sora Plan v1.2是一个开源的视频生成模型,专注于文本到视频的转换任务。它采用3D全注意力架构,优化了视频的视觉表示,并提高了推理效率。该模型在视频生成领域具有创新性,能够更好地捕捉联合空间-时间特征,为视频内容的自动生成提供了新的技术路径。

  • Meta-Llama-3.1-70B-Instruct:70亿参数的大型多语言对话生成模型

    Meta Llama 3.1是Meta公司推出的一种大型语言模型,拥有70亿参数,支持8种语言的文本生成和对话。该模型使用优化的Transformer架构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)进行调优,以符合人类对有用性和安全性的偏好。它旨在为商业和研究用途提供支持,特别是在多语言对话场景下表现出色。

  • Meta-Llama-3.1-8B-Instruct:多语言对话生成模型

    Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),支持8种语言,专为对话使用案例优化,并通过监督式微调(SFT)和人类反馈的强化学习(RLHF)来提高安全性和有用性。

  • MaskVAT:视频到音频生成模型,增强同步性

    MaskVAT是一种视频到音频(V2A)生成模型,它利用视频的视觉特征来生成与场景匹配的逼真声音。该模型特别强调声音的起始点与视觉动作的同步性,以避免不自然的同步问题。MaskVAT结合了全频带高质量通用音频编解码器和序列到序列的遮蔽生成模型,能够在保证高音频质量、语义匹配和时间同步性的同时,达到与非编解码器生成音频模型相媲美的竞争力。

  • SV4D:生成多视角视频的模型

    Stable Video 4D (SV4D) 是基于 Stable Video Diffusion (SVD) 和 Stable Video 3D (SV3D) 的生成模型,它接受单一视角的视频并生成该对象的多个新视角视频(4D 图像矩阵)。该模型训练生成 40 帧(5 个视频帧 x 8 个摄像机视角)在 576x576 分辨率下,给定 5 个相同大小的参考帧。通过运行 SV3D 生成轨道视频,然后使用轨道视频作为 SV4D 的参考视图,并输入视频作为参考帧,进行 4D 采样。该模型还通过使用生成的第一帧作为锚点,然后密集采样(插值)剩余帧来生成更长的新视角视频。

今日大家都在搜的词:

热文

  • 3 天
  • 7天