Search
Search
#1. 用pip 在Windows 上安裝單機版pyspark 並開啟Jupyter Notebook
pip install pyspark. 來下載安裝pyspark 5. 若想要在Jupyter Notebook 下啟動pyspark,可以加入下列參數到Windows 環境變數(使用者變數或系統變數皆 ...
#2. Apache Spark with Python (1) — 安裝篇
注意: 由於spark的一些bug,安裝目錄不要有其他層資料夾,請改預設目錄建議直接安裝在C:\jdk ... 打開cmd 輸入pyspark,若有出現圖標就算有成功啦可以試著輸入以下指令.
#3. PySpark 安装、配置之使用初体验_hecongqing的博客
目录1、什么是Apache Spark?2、spark安装(python版本)3、在jupyter notebook中使用PySpark什么是Apache Spark...
#4. Python之pyspark:pyspark的简介、安装、使用方法之详细攻略
Python Packaging,这个自述文件只包含与PySpark安装的pip相关的基本信息。这个打包目前还处于试验阶段,在未来的版本中可能会有变化(尽管我们会尽力保持 ...
#5. Windows 安装配置PySpark 开发环境(详细步骤+原理分析)
pip install pyspark 会安装最新的版本的pyspark。 (2)或者,将解压的spark安装包中的 D:\spark-2.3.1-bin-hadoop2.6\python ...
#6. PySpark 安装教程使用Jupyter 作编辑器- 何大卫 - 博客园
Python的安装(Anaconda); pyspark的安装; Jupyter的设置. JDK 的安装. 在JDK官网(OpenJDK, oraclejdk都行)下载安装包 ...
#7. Windows下pyspark的环境搭建 - 知乎专栏
写在前面的话~由于工作中的数据挖掘从sklearn转换到集群了,要开始pyspark了,但是发现市面上无论是pyspark的 ... 如果出现下面界面,则恭喜你,pyspark安装配置成功。
#8. spark python安裝配置(初學) - IT閱讀
需要:jdk10.0、spark2.3.1、Hadoop2.7.7(與spark對應的版本). 1、首先安裝pyspark包:. pip install py4j. pip install pyspark.
#9. PySpark安装+Jupyter Notebook配置(Ubuntu 18.06)
学校一门Big Data Computing需要学习Spark in Python。 这篇文章记录一下安装PySpark和Jupyter Notebook上运行Spark的步骤。
#10. 在Windows 10 上使用PySpark 連接Mysql 資料庫參考筆記
若Java 安裝路徑有空白,pyspark 執行會出現錯誤。 新增JAVA_HOME 到環境變數,例如: JAVA_HOME = C:\Java\jre1.8.0_241. 在 ...
#11. PySpark 安裝教程使用Jupyter 作編輯器 - 台部落
Java的安裝(JDK); Python的安裝(Anaconda); pyspark的安裝; Jupyter的設置. JDK 的安裝. 在JDK官網(OpenJDK, oraclejdk都行)下載安裝 ...
#12. 在Windows上安裝pyspark - PYTHON - 2021 - Elfishgene
Windows上的Apache Spark安裝|如何在Windows 10上安裝Apache Spark。 Simplilearn ... 但是,我認為使用pip install pyspark可以消除這種情況。
#13. Spark安裝與設定
為了讓Spark能夠在本機正常工作,你需要安裝Java開發套件(JDK) ... 指定pyspark的版本 export PYSPARK_DRIVER_PYTHON=/usr/local/bin/ipython3 # 指定spark的python ...
#14. 大數據系列:mac系統安裝pyspark及jupyter使用 - 每日頭條
介紹Apache Spark是數據處理框架中最熱門,規模最大的開源項目之一,它具有豐富的高級API,可用於Scala,Python,Java和R等程式語言。
#15. 開始使用適用於Apache Spark 的.NET
安裝 SDK 會將 dotnet 工具鏈新增到您的PATH 之中。 安裝.NET Core SDK 之後,請開啟新的命令提示字元或終端機,然後執行 dotnet 。 如果命令執行 ...
#16. pip - 在pip安装pyspark之后运行pyspark - IT工具网
我想在我的家用计算机上安装 pyspark 。我做了 pip install pyspark pip install jupyter 两者似乎都运作良好。 但是当我尝试运行 pyspark 时,我得到了
#17. MAC OS 如何安装PySpark | 码农家园
Apache Spark是用Scala编程语言编写的。为了用Spark支持Python,Apache Spark社区发布了一个工具PySpark。使用PySpark,您也可以使用Python编程语言中 ...
#18. PySpark安装小记 - 简书
PySpark安装 小记 ... export SPARK_HOME="/usr/local/lib/python3.4/dist-packages/pyspark" ... 安装之后还是提示上面的错误,查看Java 版本:.
#19. PySpark安装 - 程序员大本营
小白试了很多方法,直接pip install pyspark失败了,应该是安装包太大了,在anaconda主页上,点击下载安装,界面没有反应,因此就使用了离线下载的方式。
#20. 在Windows中安裝PySpark環境_其它 - 程式人生
在Windows中安裝PySpark環境安裝Python 可以選擇安裝官方版本的Python,或是Anaconda,對應的地址如下。
#21. MAC下Anaconda+Pyspark安裝設定詳細步驟 - IT145.com
在MAC的Anaconda上使用pyspark,主要包括以下步驟: 在MAC下安裝Spark,並設定環境變數。 在Anaconda中安裝參照pyspark。 1. MAC下安.
#22. 安裝Spark 到遠端伺服器
要執行Spark 的程式要執行,需要java 1.8 的版本,所以要先安裝jdk 1.8, ... 安裝Python 與PySpark: ... python get-pip.py pip install pyspark ...
#23. pyspark系列2-linux安装pyspark - 墨天轮
安装 Java和Scale. 1.1 安装java; 1.2 安装Scala. 1.2.1 安装; 1.2.2 配置; 1.2.3 启动. 二.安装Apache Spark; 三.pyspark案例; 参考: ...
#24. 在Windows中安裝PySpark環境
在Windows中安裝PySpark環境安裝Python 可以選擇安裝官方版本的Python,或是Anaconda,對應的地址如下。 下.
#25. 《巨量資料技術與應用》環境設定講義- Spark之安裝配置
安裝 與配置Spark:設定成單機模式(Local Mode)作為主要運作模式。 ... Spark Shell可開啟Scala運作環境,而PySpark可開啟Python運作環境。
#26. Apache Spark 開發環境安裝@ Vetom - Study :: 隨意窩Xuite日誌
想到就慢慢補齊囉:D 這次想要簡單講一下Spark怎麼安裝. ... 201511040959Apache Spark 開發環境安裝 ?Apache Spark ... 執行pyspark後,會直接進入互動式開發環.
#27. Win7 单机Spark和PySpark安装 - 51CTO博客
已安装Pycharm 和Intellij IDEA。 win7 PySpark 安装:. . win7 Spark安装:. . 2. 遇到的那些问题:. 1) Scala 需要安装两次:.
#28. Python for Spark Scripting - IBM SPSS Modeler
IBM® SPSS® Modeler 可以使用Apache Spark 架構來執行Python Script,從而處理資料。此說明文件提供所提供之介面的Python API 說明。 IBM SPSS Modeler 安裝包括Spark ...
#29. PySpark和SparkSQL基礎:如何利用Python程式設計執行 ...
當PySpark和PyArrow包安裝完成後,僅需關閉終端,回到Jupyter Notebook,並在你程式碼的最頂部匯入要求的包。 import pandas as ...
#30. PySpark简介及详细安装教程- HelloWorld开发者社区
Spark是用Scala编程语言编写的。为了用Spark支持Python,Apache Spark社区发布了一个工具PySpark。使用PySpark,也可以使用Python编程语言中的RDD 。正是 ...
#31. pyspark安装文档 - 代码先锋网
pyspark环境安装. 一、python3环境安装. 参考文档:pyspark安装. 1、下载安装包查看windows环境下python环境的版本,然后去官网下载对应的版本,tgz格式
#32. 安装和运行pyspark的问题 - 大数据知识库
我遵循了在本地机器上运行pyspark的安装文档。 ... Start pyspark via provided command; import pyspark; # Below code is Spark 2+; spark = pyspark.sql.
#33. MAC下Anaconda+Pyspark安装配置详细步骤 - 脚本之家
在Anaconda中安装引用pyspark。 1. MAC下安装Spark. 到Apark Spark官网上下载Spark文件,无论是windows系统,还是MAC系统,亦或者 ...
#34. 怎样在3分钟内安装PySpark 和Jupyter Notebook - gitweixin ...
在安装pySpark之前,必须先安装Python和Spark。 我在以下示例中使用的是Python 3,但您可以轻松地使其适应Python2。请访问Python官方网站进行安装。
#35. PySpark安装使用
在Spark的官方的安装界面就提到了PySpark的安装方式就是直接运行 pip install pyspark 。这当然是可以的,但是我们一般不直接这样做,主要是 ...
#36. 在MacBook上安装pyspark - ▶️ Ntcdoon
我在Scala中使用Spark已有很长时间了。现在,我第一次使用pyspark。这是在Mac上,首先我使用conda install pyspark安装了pyspark,它安装了pyspark 2.2.0我安装了...
#37. pyspark的简介、安装、使用方法之详细攻略_一个处女座的程序猿
Python之pyspark:pyspark的简介、安装、使用方法之详细攻略目录pyspark的简介pyspark的安装pyspark的使用方法pyspark的简介Spark是一个用于大规模数据处理的统一分析 ...
#38. Apache Spark & PySpark 的win10安装(2020) - BiliBili
#39. Spark 安裝 - 億聚網
Spark是Hadoop的子項目。因此,最好是安裝Spark在Linux系統上。下列步驟顯示瞭如何安裝Apache Spark。 第1步:驗證安裝Java 安裝Java是在安裝Spark ...
#40. 第一次部屬Hadoop 就上手– Part 4 – Spark及Jupyter 應用程式 ...
安裝 jupter 系列及pyspark 等套件(管理者身份). 如Part 1 略過Python3 安裝,請先回去執行!! 安裝pyspark 套件. pip3 install pyspark. 安裝jupter 系列套件.
#41. 1-1,快速搭建你的Spark开发环境 - GitHub
一,搭建本地pyspark单机练习环境. 以下过程本地单机版pyspark练习编程环境的配置方法。 注意:仅配置练习环境无需安装hadoop,无需安装scala.
#42. Spark和pyspark的配置安裝- 碼上快樂
如何安裝Spark和Pyspark構建Spark學習環境MacOs JDK環境Python環境Spark引擎下載地址: Apache Spark官網http: spark.apache.org downloads.html MacOs ...
#43. Pyspark 單機 - 軟體兄弟
Pyspark 單機,2021年7月25日— 1 安裝java pyspark需要java支持, 首先必須安裝java, 至少安裝java8,或者更高版本, 推薦java8 安裝 ... ,那為什麼還需要Spark ML 呢?
#44. Spark和pyspark的配置安装 - 术之多
如何安装Spark和Pyspark构建Spark学习环境【MacOs】. * **JDK环境** * **Python环境** * **Spark引擎** * 下载地址:[Apache-Spark ...
#45. pyspark安装系列(2):Spark里使用anaconda(详细部署 ...
介绍上一篇文章,详细介绍了如何在Linux系统安装Spark。详细了解请点击:Linux系统安装单机版Spark但还遗留一个问题,就是PySpark使用的是Linux默认的Python2.7.5 ...
#46. win10下安裝pyspark | 程式前沿
一.【前言】 最近在用spark作練習因此需要安裝pyspark,摸索了一陣子在win10、win7下都已安裝成功,所以寫點東西下來,給還在摸索的小夥伴一點幫助。
#47. 1、mac:pyspark安装以及各种运行方法测试以及报错解决方案
pyspark学习---1、mac:pyspark安装以及各种运行方法测试以及报错解决方案,灰信网,软件开发博客聚合,程序员专属的优秀博客文章阅读平台。
#48. win10下安装pyspark_huaibei的小屋-程序员宝宝_pyspark安装
最近在用spark作练习因此需要安装pyspark,摸索了一阵子在win10、win7下都已安装成功,所以写点东西下来,给还在摸索的小伙伴一点帮助。
#49. Ubuntu 下PySpark 安裝 - 雪花台湾
2、spark安裝(python版本). 3、在jupyter notebook中使用PySpark. 1、什麼是Apache Spark? Apache Spark 是一種用於處理、查詢和分析大數據的快速集群 ...
#50. python-PySpark安装错误- CocoaChina_一站式开发者成长社区
我已按照包括this、this、this和this在内的各种博客文章中的说明在笔记本电脑上安装pyspark.但是,当我尝试从终端或jupyter笔记本电脑使用pyspark时, ...
#51. 大數據系列:mac系統安裝pyspark及jupyter使用 - 今天頭條
Apache Spark是數據處理框架中最熱門,規模最大的開源項目之一,它具有豐富的高級API,可用於Scala,Python,Java和R等程式語言。
#52. 将Amazon EMR 配置为使用Python 3.x 运行PySpark 作业
要升级PySpark 所用的Python 版本,请将spark-env 分类的PYSPARK_PYTHON 环境变量指向Python 3.4 或3.6 的安装目录。 解决方法. 正在运行的集群上. Amazon ...
#53. pyspark安装- 程序员秘密
windows下安装pyspark及pycharm配置最完整详细教程 ... 基于python的spark核心插件库、因在线下载较慢、所以建议离线安装、pyspark、包含sparkcore sparkstream、机器 ...
#54. python-PySpark安装错误 - ICode9
我已按照包括this、this、this和this在内的各种博客文章中的说明在笔记本电脑上安装pyspark.但是,当我尝试从终端或jupyter笔记本电脑使用pyspark时, ...
#55. pyspark-除了Spark发布包,我还需要安装其他东西吗?
我需要通过安装JDK来额外安装java编译器javac吗? ... 当通过运行pip install pyspark安装Spark时,它是否已经为Java和Scala安装了Spark?
#56. pyspark安装系列(2):Spark里使用anaconda ... - 爱代码
介绍上一篇文章,详细介绍了如何在Linux系统安装Spark。 详细了解请点击:系列之一:Linux系统安装单机版Spark 但还遗留一个问题,就是PySpark使用的是Linux默认 ...
#57. win10安装pyspark_牛客博客
win10安装pyspark · 1.java 这个网上自己搜,一路下来即可,一般就是安装+环境变量打开cmd 输入java -version · 2.conda/pip install pyspark · 3.hadoop + ...
#58. 使用pip install pyspark 安装时是否有spark-defaults.conf
我安装 pyspark 了 pip . 我在 jupyter 笔记本中编码。一切正常,但不是我 java 在导出大 .csv 文件时遇到堆空间错误。
#59. pySpark学习笔记| spring's Blog | 游龙当归海,海不迎我自来也。
pyspark 下载与环境设置前提: 安装pyspark之前,要检查电脑是否安装了JAVA环境,可以用命令java -version来查看。参考链接:Centos下JDK的安装与 ...
#60. 只是另一个适用于Windows的Spark(PySpark)安装教程。
只是另一个适用于Windows的Spark(PySpark)安装教程。 我最近开始了数据科学的实习,Spark在我的工作场所被用作平台。 为了获得Spark的实际使用经验,我决定将其安装 ...
#61. pyspark:local模式-安装和使用- 掘金
pyspark :local模式-安装和使用. 1/下载. 到官方网站去下载apache spark 官网:https://spark.apache.org/downloads.html 或者是清华大学镜像 ...
#62. 如何在Debian 11 上安裝Apache Spark - 0x資訊
如何在Debian 11 上安裝Apache Spark [*]Apache Spark 是一個免費、開源、通用的分散式計算框架,旨在提供更快的計算結果。 它支持多…
#63. pyspark安装问题_百度知道
pyspark安装 问题打算安装pyspark,安装好jdk,配置相关spark文件夹路径后从命令行输入pyspark提示系统找不到指定的路径?... pyspark安装问题打算安装pyspark,安装 ...
#64. 在Windows上安装Pyspark - Python问答
我有几个问题我想在安装前澄清。请忍受我,因为我仍然是数据科学和安装包。 1)我可以在我的窗户上安装pyspark。当我尝试运行下面的示例脚本时, ...
#65. Python pyspark包_程序模块- PyPI
Python pyspark这个第三方库(模块包)的介绍: apache spark python api Apache Spark Python API 正在更新《 ... 此自述文件仅包含与PIP相关的基本信息安装了Pyspark。
#66. 安裝jupter for pyspark | 學而時習之
安裝 jupter for pyspark. By waue0920 on 2016 年11 月03 日. 將jupyter 上打的python code 轉到spark 執行. image. test ok on debian / ubuntu ...
#67. 快速搭建你的spark开发环境- Heywhale.com
... 版pyspark练习编程环境的配置方法。 注意:仅配置练习环境无需安装hadoop,无需安装scala. ... 和鲸的云端notebook环境中已经安装好了pyspark。
#68. Spark 平台的安裝
基於hadoop 2.7 和Spark 2.1.2 的安裝流程. ... pyspark. 2. Python 2.7.12 (default, Dec 4 2017, 14:50:18). 3. [GCC 5.4.0 20160609] on linux2.
#69. [問題] pyspark安裝- 看板Python - 批踢踢實業坊
... 網路上的操作想說只是簡單的幾個步驟但遇上了一個嚴重的問題安裝結果: ... import name 'SparkContext' 如果from pyspark import SparkConf 就是 ...
#70. 如何解決pyspark安裝問題- 堆棧內存溢出
我已盡力將Spark安裝到我的MAC。 我想使用Jpyter Notebook來使用Spark,但我發現安裝它令人沮喪。 我試過的brew install apache spark gt 不起作用從網上安裝軟件包並 ...
#71. [Zeppelin] create pyspark - No quality data, no product
繼上篇安裝好apache zeppelin以後. 他default是run spark,也就是寫scala. 對於scala不熟悉的我來說,有點痛苦~一堆val還有底線.
#72. 第8章Python Spark 2.0 介紹與安裝
8.1 安裝scala · 8.2 安裝Spark · 8.4 設定pyspark 顯示訊息 · 8.5 建立測試文字檔 · 8.6 本機執行pyspark 程式 · 8.7 在Hadoop YARN執行pyspark · 8.8 建置 ...
#73. [python] 使用Spark 與Hive 進行ETL - 傑瑞窩在這
使用PySpark 來進行ETL ... coding: utf-8 -*- from pyspark.sql import SparkSession from pyspark.sql import HiveContext import ... 來簡易安裝 ...
#74. pyspark 教程
為了用Spark支持Python,Apache Spark社區發布了一個工具PySpark。 ... Spark2.1.0+入門:Spark的安裝和使用(Python版, dblab.xmu.edu.cn. pyspark入門教程_Im ok的 ...
#75. 在pip安装pyspark之后运行pyspark - Thinbug
我想在家用机器上安装 pyspark 。我做了 pip install pyspark pip install jupyter.
#76. sumo与python的接口——TraCI
打开python的安装目录(或者anaconda安装目录)–> Lib --> site-packages ,在该目录下新建 traci.pth 文件,在该文件中输入traci的安装目录。
#77. OPIE - Confluence Mobile - Apache Software Foundation
Oops! Something went wrong. It's probably us, but it might be you. Check your network connection. Retry; Cancel.
#78. Java知识
linux 安装conda环境;Linux每次开机都要source /etc/profile新安装的环境才生效 ... pandas astype、去重保留最大值;hive regexp_extract;pyspark ...
#79. dtreeviz:一款超级棒的决策树可视化和模型可解释性工具
安装. pip install dtreeviz # install dtreeviz for sklearn pip install ... pip install dtreeviz[pyspark] # install pyspark related dependency ...
#80. Sql parser python
I have issued the following command in sql (because I don't know PySpark or ... 2018 · sqlparse是Python的一个解析SQL语言的库,安装和文档我也不累赘说了,提供 ...
#81. Beeline Kerberos
使用 beeline连接 hive两种方式 1、启动hives er v er 2 #进入hive安装目录 cd ... user bosco can run beeline and execute other operations like pyspark etc.
#82. 在Windows上安裝pyspark | PYTHON 2021 - Sierrasummit2005
2)對於intellij,在pyspark中安裝並根據需要設置為1後,我是否仍需要進行其他配置 ... 只是為了檢查所以我們必須做pip install pyspark,然後下載仍然apache spark, ...
#83. Tensorflow dead kernel
我根据官网的安装指南,在 Anaconda 环境下进行安装。 ... kernels for Jupyter that provide support for Python 2 and 3, Apache MXNet, TensorFlow, and PySpark.
#84. Apache iceberg spark - Roshni Noor and Associates – Law Firm
Dec 05, 2019 · In this article, we explain how to set up PySpark for your Jupyter ... 1 安装2. Apache Spark is an open-source unified analytics engine for ...
#85. 不負責任教學- Pyspark 基礎教學介紹(1)
主要的操作都是針對Pyspark dataframe進行。由於我們是在local Spark環境沒有數據讀取,所以我們只能自己從pandas dataframe造一個數據,並將它轉變成Pyspark ...
#86. Kaggle vs colab
Pyspark is a Python API for Apache Spark and pip is a package manager for Python packages. ... 安装kaggle模块!pip install kaggle b.
#87. Spack vs conda
PySpark users can directly use a Conda environment to ship their ... 名字相似,但没有必然关系, 你可以不安装Anaconda的同时, 使用conda安装和管理软件。
#88. Conda activate google colab - mineralstrangeimages.com
4 pyspark == 3. ... 每个包都已成功安装,但现在的问题是我无法激活此环境. ... creación de ambientes virtuales. python - 将conda软件包安装到Google Colab 原文 ...
#89. Conda install python3
Mar 13, 2019 · 通过conda 安装 python 3. ... activate branch-env conda install geopandas For Python users, PySpark also provides pip installation from PyPI.
#90. 實戰機器學習|使用Spark(電子書) - 第 9-9 頁 - Google 圖書結果
... 因此,你不需要執行 PySpark 主控台。 TIP 此章的 Python 範例程式,提供了完整的 Python 原始碼檔案,也有 IPython Notebook 格式。至於怎麼安裝 IPython, ...
#91. Stamp Simply Clear Stamps Farmhouse Christmas Joy 4 ...
... Scrapbooking Python Spark Certification Training using PySpark A ... 由於它使用Tkinter作為基礎圖形,因此需要安裝有Tk支持的Python版本。
#92. 《Python数据结构与算法分析第2版》pdf版电子书免费下载
第19章使用PXE+Kickstart无人值守安装服务 · 第20章使用LNMP架构部署动态网站环境. booking. Linux系统镜像及所需软件工具包下载地址:
#93. Jupyter notebook kernel keeps restarting
... 查看你的 jupyter 里有几个 kernel ,一般如果没额外安装过,会只显示一个path。 ... of different kernels, including SQL Server, Python, PySpark, and others.
#94. Unsupported class file major version 55 android studio
我确保我的机器上安装了正确的Java JDK8,但我仍然收到此错误。. minor version 52. ... class file major version 57 pyspark 'Unsupported class file major version ...
#95. 如何訪問另一個用戶安裝的anaconda中的pyspark? - ubuntu
Make sure user2 has SPARK_HOME environment variable configured if not, set it. If you have set SPARK_HOME for all users should, accessing SPARK_HOME should ...
#96. Pyqt5 qstyleditemdelegate example
从源代码构建和安装. ... PyQt5 in what module is the emit method found? remove last pipe-delimited value from dataframe column in pyspark; ...
#97. Apache iceberg spark
In many use cases though, a PySpark job can perform worse than an ... 1 安装2. 希望能给大家带来一些启示。. Delta Lake is an open-source storage layer that ...
#98. Brew install java specific version - studioparaguas.com
(also works with Xcode 5. run brew upgrade) 安装指定版本Java. Nov 29, 2021 · Install Brew On Osx; ... You can now open PySpark with the command below.
pyspark安裝 在 [問題] pyspark安裝- 看板Python - 批踢踢實業坊 的必吃
對於python 對於spark我都是新手 請多多見諒
最近想要開始學習spark 用python寫
照著網路上的操作 想說只是簡單的幾個步驟
但遇上了一個嚴重的問題
安裝結果:
看別人安裝好都會有這一行
SparkContext available as sc.
可是我沒有這部分
導致於我在跑範例程式碼的時候
都會跑出
cannot import name SparkContext
請問 是我安裝的部分沒搞好嗎?
還是 我需要去哪裡改哪個東西呢?
謝謝你/妳
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 68.181.206.76
※ 文章網址: https://www.ptt.cc/bbs/Python/M.1490939425.A.E4E.html
如果from pyspark import SparkConf 就是跑出 cannot import name 'SparkConf'
確認一下 跑程式碼 是用terminal打./bin/spark-submit xxx.py 對嗎?
補充一下 python version:3.5.2 spark version:2.1.0
謝謝
※ 編輯: dream3531 (68.181.88.116), 03/31/2017 22:36:51
正在學 一直發問 哈哈哈
※ 編輯: dream3531 (68.181.88.116), 04/01/2017 13:26:55
※ 編輯: dream3531 (68.181.88.116), 04/02/2017 00:48:38
... <看更多>