本篇内容主要讲解“Ubuntu下gedit中文乱码问题的解决方法”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Ubuntu下gedit中文乱码问题的解决方法”吧!gedit中文乱码问题解决,windows下的文档在linux下乱码问题解决:打开终端输入以下命令:gsettings set org.gnome.gedit.preferences.encodings auto-detected "['UTF-8','CURRENT','GB18030','ISO-8859-15','UTF-16']"到此,相信大家对“Ubuntu下gedit中文乱码问题的解决方法”有了更深的了解,不妨来实际操作一番吧!这里是辰迅云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!...
小编给大家分享一下Linux中如何生成Core Dump系统异常信息记录文件,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!1 什么是 Core DumpCore Dump 又叫核心转储。在程序运行过程中发生异常时,将其内存数据保存到文件中,这个过程叫做 Core Dump。2 Core Dump 的作用在开发过程中,难免会遇到程序运行过程中异常退出的情况,这时候想要定位哪里出了问题,仅仅依靠程序自身的信息打印(日志记录)往往是不够的,这个时候就需要 Core Dump 文件来帮忙了。一个完整的 Core Dump 文件实际上相当于恢复了异常现场,利用 Core Dump 文件,可以查看到程序异常时的所有信息,变量值、栈信息、内存数据,程序异常时的运行位置(甚至记录代码行号)等等,定位所需要的一切信息都可以从 Core Dump文件获取到,能够非常有效的提高定位效率。3 如何生成 Core Dump3.1 Core Dump 文件生成开关Core Dump 文件的生成是由Core文件大小限制,Linux中默认的Core文件大小设置为零,也就是不生成 Core Dump 文件,可以使用ulimit -c命令来查看当前的Core文件大小限制。要生成 Core Dump 文件,只需要执行下面的命令设置Core文件的大小即可(其中filesize参数的单位为KByte):代码如下:ulimit -c filesize如果要设置Core文件大小无限制(即把程序完整的运行内存都保存下来),则执行如下命令:代码如下:ulimit -c unlimited3.2 Core Dump 文件名设置Core Dump 文件默认的名字为core,而且新的Core文件会把老的覆盖,这样我们只能看到最后一次的 Core Dump 信息,可以通过设置Core文件名称模板,使每次生成的 Core Dump 文件区分开来。Core Dump 文件的命名规则定义在/proc/sys/kernel/core_pattern文件中,规则中还可以加入预设的变量来更好的区分Core文件,支持的变量列表如下:变量说明%%%字符%p进程ID(PID)%u用户ID(UID)%g用户组ID%s触发 Core Dump 的信号%t触发 Core Dump 的时间(单位为秒,从 1970-01-01 00:00:00 开始计算)%h主机名称(主机名可以通过uname命令来查看)%e程序名称(无路径信息)%E程序的路径名称(路径中的/会被!替代)%cCore文件的限制大小值(Linux 2.6.24版本后开始支持)注:Core Dump 文件名的最大长度为128字节(在 Linux 2.6.19 版本前,最大长度为64字节)。例如:可以通过下面的命令,生成文件名为core-程序名称-进程ID-时间的 Core Dump 文件:echo "core-%e-%p-%t" > /proc/sys/kernel/core_pattern从 Linux 2.4 版本开始,提供了一种比较原始的Core文件名设置方式,直接设置/proc/sys/kernel/core_uses_pid文件中的值为1,生成的Core文件名中便会自动加上.PID后缀,即生成的文件名为core.PID这种形式。执行下面的命令可以设置该值:代码如下:echo "1" > /proc/sys/kernel/core_uses_pid4 如何使用 Core Dump有了 Core Dump 文件后,可以使用GDB来加载分析,执行如下命令(假设可执行程序名称及路径为/home/hutaow/test_dump,生成的Core文件名为core):代码如下:gdb /home/hutaow/test_dump -c core加载完成后,即可以在GDB中查看程序异常时的各种运行信息了(查看变量值、线程信息、调用栈、反汇编等等)。以上是“Linux中如何生成Core Dump系统异常信息记录文件”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注辰迅云资讯频道!...
这篇文章主要为大家展示了“Linux系统中tr命令怎么用”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Linux系统中tr命令怎么用”这篇文章吧。tr 转换,压缩,截短,删除字符 tr [option].....set1 [set2]参数: -d,--delete 删除字符串1中的字符,不进行转换。 -s,--squeeze-repeats 将重复出现字符串压缩为一个字符串。 -t,--truncate-set1 将字符串1的长度截成字符串2的长度。 -c,--complement 取字符串1的补集。要求字符集为ASCII。 --help 打印帮助。 --version 显示版主信息。转义字符如下: \NNN 字符的八进制码 \\ 反斜线 \a BELL响铃 \b 空格 \c 不打印新行符 \n 新行 \r 回车 \t 横向跳格 \v 坚向跳格字符模式: CHAR1-CHAR2 表示从字符CHAR1到CHAR2.如a-z,A-Z... [CHAR*] 表示一个或连续几个CHAR。 [CHAR*REPEAT] 表示REPEAT个数个CHAR。 [:alnum:] 表示所有字母和数字。 [:alpha:] 表示所有字母。 [:blank:] 表示横向空格。 [:cntrl:] 表示控制字符。 [:digit:] 表示所有数字。 [:graph:] 表示可打印字符,不包括空格。 [:lower:] 表示小写字母。 [:upper:] 表示大写字母。 [:print:] 表示可打印字符,包括空格。 [:xdigit:] 表示十六进制数字。 [=CHAR=] 表示CHAR例子:(1)去除oops.txt里面的重复的小写字符代码如下:tr -s "[a-z]"<oops.txt >result.txt(2)删除空行代码如下:tr -s "[\012]" < plan.txt 或 tr -s ["\n"] < plan.txt(3)有时需要删除文件中的^M,并代之以换行代码如下:tr -s "[\015]" "[\n]" < file 或 tr -s "[\r]" "[\n]" < file(4)大写到小写代码如下:cat a.txt |tr "[a-z]" "[A-Z]" >b.txt(5)删除指定字符一个星期的日程表。任务是从其中删除所有数字,只保留日期。日期有大写,也有小写格式。因此需指定两个字符范围[a-z]和[A-Z],命令tr -cs "[a-z][A-Z]" "[\012*]" 将文件每行所有不包含在[a-z]或[A-Z](所有希腊字母)的字符串放在字符串1中并转换为一新行。-s选项表明压缩所有新行, -c表明保留所有字母不动。原文件如下,后跟tr命令:代码如下:tr -cs "[a-z][A-Z]" "[\012*]" <diary.txt(6)转换控制字符 tr的第一个功能就是转换控制字符,特别是从dos向UNIX下载文件时,忘记设置ftp关于回车换行转换的选项时更是如此。cat -v filename 显示控制字符。代码如下: cat -v stat.txt box aa^^^^^12^M apple bbas^^^^23^M ^Z猜想『^ ^ ^ ^ ^ ^』是tab键。每一行以Ctrl-M结尾,文件结尾Ctrl-Z,以下是改动方法。使用-s选项,查看ASCII表。^的八进制代码是136,^M是015,tab键是011,^Z是032 ,下面将按步骤完成最终功能。用tab键替换^ ^ ^ ^ ^ ^,命令为"\136" "[\011*]"。将结果重定向到临时工作文件stat.tmp代码如下:tr -s "[\136]" "[\011*]" <stat.txt >stat.tmp用新行替换每行末尾的^M,并用\n去除^Z,输入要来自于临时工作文件stat.tmp。代码如下:tr -s "[\015][\032]" "\n" <stat.tmp要删除所有的tab键,代之以空格,使用命令代码如下:tr -s "[\011]" "[\040*]" <input.file(7)替换passwd文件中所有冒号,代之以tab键,可以增加可读性代码如下:tr -s "[:]" "[\011]" < /etc/passwd 或 tr -s "[:]" "[\t]" < /etc/passwd(8)使路径具有可读性 如果用 echo $PATH 或者 echo $LD_LIBRARY_PATH 等类似的命令来显示路径信息的话,我们看到的将会是一大堆用冒号连接在一起的路径, tr命令可以把这些冒号转换为回车,这样,这些路径就具有很好的可读性了代码如下:echo $PATH | tr ":" "\n"(9)可以在vi内使用所有这些命令!只要记住:在tr命令前要加上您希望处理的行范围和感叹号 (!),如 1,$!tr -d '\t'(美元符号表示最后一行)。以上是“Linux系统中tr命令怎么用”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注辰讯云资讯频道!...
本篇内容介绍了“怎么用Spark求数据的最大值”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!1: 以前用过hadoop从文件中读取数据求过最大值。现在用Spark来求最大值。由于spark的资料比较少所以搞了半天才弄完。我亲自测试在local状态下14750778条数据用了10秒。2:下载spark-0.9.1-bin-hadoop1并解压到F:\BigData (Spark可以再Windows上运行) 打开目录F:\BigData\spark-0.9.1-bin-hadoop1\assembly\target\scala-2.10把里面的spark-assembly_2.10-0.9.1-hadoop1.0.4.jar放到新建的工程里面就可以了。准备数据:新建一个data文件在里面输入如下内容:1,1,5.01,2,1.01,3,5.01,4,1.02,1,5.02,2,1.02,3,5.02,4,1.03,1,1.03,2,5.03,3,1.03,4,5.04,1,1.04,2,5.04,3,1.04,4,5.01,1,5.01,2,1.01,3,5.01,4,1.02,1,5.02,2,1.02,3,5.02,4,1.03,1,1.03,2,5.03,3,1.03,4,5.04,1,1.04,2,5.04,3,1.04,4,5.01,1,5.01,2,1.01,3,5.01,4,1.02,1,5.02,2,1.0数据之间用逗号分隔打开eclipse新建一个javaProject.在任意包中书写如下内容package com.spark.test;import java.util.Arrays;import java.util.regex.Pattern;import org.apache.spark.api.java.JavaDoubleRDD;import org.apache.spark.api.java.JavaRDD;import org.apache.spark.api.java.JavaSparkContext;import org.apache.spark.api.java.function.DoubleFunction;import org.apache.spark.api.java.function.FlatMapFunction;import org.apache.spark.api.java.function.Function2;public final class Max { private static final Pattern SPACE = Pattern.compile(","); public static void main(String[] args) throws Exception { // spark安装目录 String spark_home = "F:\\BigData\\spark-0.9.1-bin-hadoop1"; // "local" 代表了本地运行模式 JavaSparkContext ctx = new JavaSparkContext("local", "JavaWordCount", spark_home, JavaSparkContext.jarOfClass(JavaWordCount.class)); // 加载文件 JavaRDD<String> lines = ctx .textFile( "E:\\workspace\\spark\\src\\com\\spark\\resource\\test.data", 1); // flatMap函数是把每一行根据分隔符把它变成多行。比如1,2,3 用逗号分隔用了flatMap后变成 // 1 // 2 // 3 .这一行的主要作用是把所有的数据放到JavaRDD里面 JavaRDD<String> words = lines .flatMap(new FlatMapFunction<String, String>() { @Override public Iterable<String> call(String s) { return Arrays.asList(SPACE.split(s)); } }); // 把JavaRDD<String>类型变成JavaDoubleRDD类型的 JavaDoubleRDD one = words.map(new DoubleFunction<String>() { @Override public Double call(String s) throws Exception { if (s.trim().length() == 0) { s = "0"; } return Double.parseDouble(s); } }); // 统计有多少条数据 System.out.println(one.count() + "%%%%%%%%"); // 求最大值.new Function2<Double, Double, Double>() // 函数的3个参数,第一个和第二个参数对应call函数里面的第一个参数和第二个参数。第3个参数代表call函数的返回值类型 Double max = one.rdd().reduce(new Function2<Double, Double, Double>() { @Override public Double call(Double i1, Double i2) throws Exception { return Math.max(i1, i2); } }); System.out.println(max); System.exit(0); }}“怎么用Spark求数据的最大值”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注辰迅云网站,小编将为大家输出更多高质量的实用文章!...
这篇文章主要介绍了Servlet会话技术的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。一、cookie1、设置cookie,内容为时间Cookie cookie = new Cookie("LastAccessTime",System.currentTimeMillis()+""); cookie.setMaxAge(1*30*24*3600);//设置有效期1个月cookie.setPath("/项目名称");//访问整个项目都带cookie2、获得cookie信息Cookie cookies[] = request.getCookies();for(int i = 0;cookie!=null&&i<cookies.length;i++){ if(cookies[i].getName().equals("LastAccessTime")){ long cookieValues = Long.parseLong(cookies[i].getVlues());//将String转化为10进制Long型 Date date = new Date(cookieValues); response.getWrite().print(date); } }二、session(getSession()——>session30分钟未使用)1、设置sessionHttpSession session = request.getSession(); session.setAttribute("name","哈哈哈哈");2、得到sessionHttpSession session = request.getSession();//HttpSession session = request.getSession(false);//只获取不创建String str = (String)session.getAttribute("name");3、session配置,配置时间<seeeion-config> <session-timeout>20</session-timeout> </session-config>4、session摧毁HttpSession session = request.getSession(); session.invalidate();//session.removeAttribute("XXX");//移除某个session5、使用地址重写方式获得session,只有在cookie禁用下会重写request.getSession(); String url1 = response.encodingURL("需要重写的地址1"); String url2 = response.encodingURL("需要重写的地址2"); PrintWriter out = response.getWriter;out.print("<a href = '"+url1+"'>XXXX</a>");out.print("<a href = '"+url2+"'>YYYY</a>");三、客户端表单提交问题1、防止提交空密码<form action="/项目/xxx" method ="post" onsubmit="return dosubmit(this)"> 用户名:<input type="text" name="username"><br/> 密码:<input type="password" name = "password"><br/> <input type="submit" value="提交"></form><script> function dosubmit(obj){ if(obj.category.value==''){ alter("请输入"); return false; } }</script>2、防止重复提交<form action="/项目/xxx" method ="post" onsubmit="return dosubmit()"> 用户名:<input type="text" name="username"><br/> 密码:<input type="password" name = "password"><br/> <input type="submit" value="提交"></form><script> function dosubmit(){ var iscommitted = false; if(!iscommitted){ iscommitted = true; return true; }else{ return false; } }</script>感谢你能够认真阅读完这篇文章,希望小编分享的“Servlet会话技术的示例分析”这篇文章对大家有帮助,同时也希望大家多多支持辰迅云,关注辰迅云资讯频道,更多相关知识等着你来学习!...
这篇文章主要为大家展示了“RabbitMQ的应用示例”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“RabbitMQ的应用示例”这篇文章吧。虽然后台使用了读写分离技术,能够在一定程度上抗击高并发,但是如果并发量特别巨大时,主数据库不能同时处理高并发的请求,这时数据库容易宕机。问题:现在的问题是如何既能保证数据库正常运行,又能实现用户数据的入库操作?解决方案:引入rabbitMQ技术:说明:当数据库的访问压力过载时,这时会将过载以后的数据先保存到rabbitMQ中。其中的数据结构是队列的形式,先进先出。这时数据库从队列中取数据执行。一直到队列中的数据全部操作完成为止。RabbitMQ就是消息的中间件。RabbitMQ介绍:RabbitMQ性能分析:1.MSMQ:是微软的产品 应用于.net框架2.ActiveMQ:是apache的产品 做业务用图广泛3.RabbitQM:是爱立信的产品(早期手机生产厂商)基于erlang语言(函数式编程大数据 scala语言)4.ZeroMQ:大数据中应用广泛,缺点容易丢失数据.但是业务系统中使用率较少5.KafkaMQ:大数据项目中使用,50万/秒 现在主流5.RabbitMQ环境搭建:1.配置JDK:2.固定虚拟机IP地址:3.连接虚拟机:编辑文件跳转路径:Vim goCd /usr/local/src2.安装rabbitMQ:1.新建文件rabbitmq/usr/local/src/rabbitmq2.将安装文件导入3.安装rabbitMQ4.开启远程用户访问:将文件复制到指定目录下:cp /usr/share/doc/rabbitmq-server-3.6.1/rabbitmq.config.example /etc/rabbitmq/rabbitmq.config修改新复制的文件64行1.将%%去掉2.将,号去掉修改为:5.开启rabbitMQ:执行命令:rabbitmq-plugins enable rabbitmq_management表示启动成功6.开放端口15672和5672iptables -I INPUT -p tcp --dport 15672 -j ACCEPT访问rabbitMQ的控制台iptables -I INPUT -p tcp --dport 5672 -j ACCEPT程序连接rabbitMQ的端口或者关闭防火墙7.启动/停止服务service rabbitmq-server start 启动service rabbitmq-server stop 停止service rabbitmq-server restart 重启8.远程登录:访问:http://192.168.154.137:15672/用户名和密码都是guest9.视图解析:10.建立管理员:11.构建虚拟主机:11.构建虚拟主机:6.rabbitMQ的工作模式:1.简单模式:p:proverder 生产者c:consumer 消费者红色部分:队列 先进先出原理说明:生产者负责向队列中添加消息.消费者负责消费队列中的消息.消费者通过监听器,实时监控消息队列.如果消息队列中有消息则消费,如果没有消息 则等待消息.2.测试代码:1.定义Connection1.1.定义生产者3.定义消费者:2.工作模式:原理说明:生产者为消息队列中生产消息,多个消费者争抢执行权利,谁抢到谁执行.实用场景:秒杀业务 抢红包等测试代码:3.发布订阅模式:x:exchange 交换机P:表示生产者C1-2:表示多个消费者原理说明:当生产者生产消息后,先将消息发往交换机.交换机再将消息发往订阅了当前消息的队列,再次有各个队列的消费者执行.类似于 广播定义消费者::4.路由模式:x:表示交换机 type=direct 表示路由路由模式中,需要定义路由key原理说明:1.当生产者发布消息时,会定义指定的路由key 例如 key:error2.这时交换机会根据路由key发往满足条件的队列中.如果队列中没有符合条件的路由key将不能执行该消息.5.主题模式:Type:topic 表示主题模式* (star) can substitute for exactly one word.# (hash) can substitute for zero or more words.有坑 效果一样7.订单实现RabbitMQ1.引入配置文件:classpath:jdbc.propertiesclasspath:env.properties /hp月n、 口山闰廷比二曰站叩四瞿二月当“习 classpath:rabbitmq.properties IUe> /value>" >2.引入生产者1.引入配置文件2.定义发送端3.发送端代码通过代码相rabbitmq中发送数据4.定义接收端:引入配置文件5.定义接收端:6.测试成功以上是“RabbitMQ的应用示例”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注辰迅云资讯频道!...
小编给大家分享一下ActiveMQ消息队列技术融合Spring的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!一、业务逻辑我想在修改一个物品的状态时,同时发送广播,给对应的监听器去实现,此商品存储到solr中,同时通过网页静态模板生成一个当前物品的详情页面,此时用到了广播机制当我删除一个商品时,发送一个广播,给对应的监听器,同时删除solr中对应的物品。广播机制:必须要同时在线,才能接收我的消息使用消息中间件需要导入配置文件<?xml version="1.0" encoding="UTF-8"?><beans xmlns="http://www.springframework.org/schema/beans" xmlns:context="http://www.springframework.org/schema/context" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:amq="http://activemq.apache.org/schema/core" xmlns:jms="http://www.springframework.org/schema/jms" xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd http://www.springframework.org/schema/context http://www.springframework.org/schema/context/spring-context.xsd"> <!-- 真正可以产生Connection的ConnectionFactory,由对应的 JMS服务厂商提供--> <bean id="targetConnectionFactory" class="org.apache.activemq.ActiveMQConnectionFactory"> <property name="brokerURL" value="tcp://192.168.200.128:61616"/> </bean> <!-- Spring用于管理真正的ConnectionFactory的ConnectionFactory --> <bean id="connectionFactory" class="org.springframework.jms.connection.SingleConnectionFactory"> <!-- 目标ConnectionFactory对应真实的可以产生JMS Connection的ConnectionFactory --> <property name="targetConnectionFactory" ref="targetConnectionFactory"/> </bean> <!-- Spring提供的JMS工具类,它可以进行消息发送、接收等 --> <bean id="jmsTemplate" class="org.springframework.jms.core.JmsTemplate"> <!-- 这个connectionFactory对应的是我们定义的Spring提供的那个ConnectionFactory对象 --> <property name="connectionFactory" ref="connectionFactory"/> </bean> <!-- 发布订阅模式, 商品导入索引库和生成静态页面 --> <bean id="topicPageAndSolrDestination" class="org.apache.activemq.command.ActiveMQTopic"> <!--将商品上架所有的商品的id发送到这个队列中--> <constructor-arg value="youlexuan_topic_page_solr"/> </bean> <!-- 点对点模式--> <bean id="queueSolrDeleteDestination" class="org.apache.activemq.command.ActiveMQQueue"> <!--将商品上架所有的商品的id发送到这个队列中--> <constructor-arg value="youlexuan_queue_solr_delete"/> </bean> </beans>发布广播:if ("1".equals(status)){ jmsTemplate.send(topicPageAndSolrDestination, new MessageCreator() { @Override public Message createMessage(Session session) throws JMSException { TextMessage textMessage = session.createTextMessage(String.valueOf(id)); return textMessage; } }); }监听器1,将当前商品存入solr中:操作solr的服务器配置文件<?xml version="1.0" encoding="UTF-8"?><beans xmlns="http://www.springframework.org/schema/beans" xmlns:context="http://www.springframework.org/schema/context" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:amq="http://activemq.apache.org/schema/core" xmlns:jms="http://www.springframework.org/schema/jms" xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd http://www.springframework.org/schema/context http://www.springframework.org/schema/context/spring-context.xsd"> <!--产生Connection--> <bean id="targetConnectionFactory" class="org.apache.activemq.ActiveMQConnectionFactory"> <property name="brokerURL" value="tcp://192.168.200.128:61616"/> </bean> <!--spring 管理connectionFactory--> <bean id="connectionFactory" class="org.springframework.jms.connection.SingleConnectionFactory"> <property name="targetConnectionFactory" ref="targetConnectionFactory"/> </bean> <!--发布订阅模式 将数据导入solr 索引库--> <bean id="topicPageAndSolrDestination" class="org.apache.activemq.command.ActiveMQTopic"> <constructor-arg value="youlexuan_topic_page_solr"/> </bean> <!--发布订阅模式 消息监听容器 将数据导入solr 索引库--> <bean class="org.springframework.jms.listener.DefaultMessageListenerContainer"> <property name="connectionFactory" ref="connectionFactory" /> <property name="destination" ref="topicPageAndSolrDestination" /> <property name="messageListener" ref="pageAndSolrListener" /> </bean>#对应的用来监听执行往solr中保存库存的消息 <bean id="pageAndSolrListener" class="com.ghh.sellergoods.service.listener.ItemSearchListener"></bean> <!--点对点的模式 删除索引库--> <bean id="queueSolrDeleteDestination" class="org.apache.activemq.command.ActiveMQQueue"> <!--指定从这个队列中 接收下架商品的--> <constructor-arg value="youlexuan_queue_solr_delete"/> </bean> <!--点对点的模式 消息监听器 删除索引库--> <bean class="org.springframework.jms.listener.DefaultMessageListenerContainer"> <property name="connectionFactory" ref="connectionFactory" /> <property name="destination" ref="queueSolrDeleteDestination" /> <property name="messageListener" ref="itemDeleteListener" /> </bean> <bean id="itemDeleteListener" class="com.ghh.sellergoods.service.listener.ItemDeleteListener"></bean></beans>监听器类public class ItemSearchListener implements MessageListener { @Autowired private SearchService searchService; @Autowired private ItemDao itemDao; @Override public void onMessage(Message message) { //获取生产者发布的广播,往solr中添加库存列表 ActiveMQTextMessage atm = (ActiveMQTextMessage) message; try { //获取广播中的数据。 Long goodsId = Long.valueOf(atm.getText()); //通过传过来的商品id去查询库存表 ItemQuery query = new ItemQuery(); ItemQuery.Criteria criteria = query.createCriteria(); criteria.andGoodsIdEqualTo(goodsId); //查询对应商品id的库存表 List<Item> items = itemDao.selectByExample(query); //调用对应的方法,往solr中添加当前商品对应库存信息 searchService.importList(items); } catch (JMSException e) { e.printStackTrace(); } } }监听器类2:配置文件<?xml version="1.0" encoding="UTF-8"?><beans xmlns="http://www.springframework.org/schema/beans" xmlns:context="http://www.springframework.org/schema/context" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:amq="http://activemq.apache.org/schema/core" xmlns:jms="http://www.springframework.org/schema/jms" xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd http://www.springframework.org/schema/context http://www.springframework.org/schema/context/spring-context.xsd"> <!--产生Connection工厂类--> <bean id="targetConnectionFactory" class="org.apache.activemq.ActiveMQConnectionFactory"> <property name="brokerURL" value="tcp://192.168.200.128:61616"/> </bean> <!--spring管理工厂类--> <bean id="connectionFactory" class="org.springframework.jms.connection.SingleConnectionFactory"> <property name="targetConnectionFactory" ref="targetConnectionFactory"/> </bean> <!--发布订阅模式 生成页面--> <bean id="topicPageAndSolrDestination" class="org.apache.activemq.command.ActiveMQTopic"> <!--指定从这个队列上获取上架的商品id--> <constructor-arg value="youlexuan_topic_page_solr"/> </bean> <!--发布订阅模式 消息监听器 生成页面--> <bean class="org.springframework.jms.listener.DefaultMessageListenerContainer"> <property name="connectionFactory" ref="connectionFactory" /> <property name="destination" ref="topicPageAndSolrDestination" /> <property name="messageListener" ref="pageListener" /> </bean> <bean id="pageListener" class="com.ghh.core.service.listener.PageListener"></bean> </beans>监听器类2:生成静态网页模板public class PageListener implements MessageListener { @Autowired private CmsService cmsService; @Override public void onMessage(Message message) { ActiveMQTextMessage atm = (ActiveMQTextMessage) message; try { Long goodsId = Long.valueOf(atm.getText()); Map<String, Object> goodsData = cmsService.findGoodsData(goodsId); cmsService.createStaticPage(goodsId,goodsData); } catch (Exception e) { e.printStackTrace(); } } }点对点当我删除商品时,我需要对应的服务进行删除solr中库存信息,添加和删除使用的是同一个服务中,使用的是上面的配置文件//发布广播, @Autowired private ActiveMQTopic topicPageAndSolrDestination;//在修改的代码方法中来广播发布当前商品的idif (ids.length>0) { jmsTemplate.send(queueSolrDeleteDestination, new MessageCreator() { @Override public Message createMessage(Session session) throws JMSException { TextMessage textMessage = session.createTextMessage(String.valueOf(ids)); return textMessage; } }); }#执行删除solr中库存信息public class ItemDeleteListener implements MessageListener { @Autowired private SearchService searchService; @Override public void onMessage(Message message) { ActiveMQTextMessage atm = (ActiveMQTextMessage) message; try { Long goodsId = Long.valueOf(atm.getText()); searchService.deleteById(goodsId); } catch (JMSException e) { e.printStackTrace(); } } }以上是“ActiveMQ消息队列技术融合Spring的示例分析”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注辰迅云资讯频道!...
这篇文章主要为大家展示了“java中Mybatis映射属性、高级映射的示例分析”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“java中Mybatis映射属性、高级映射的示例分析”这篇文章吧。映射文件的sql属性:id:标识符(一般都是dao层方法名)resultType:sql返回类型resultMap:放回的映射类型parameterType:参数类型useGeneratedKeys="true" keyProperty="id":执行完添加操作放回最后一次自增长id(备注:把对象添加完后,对象的id属性就自动有值了)resultMap高级映射:超类(类中类)association:<resultMap type="实体类类型" id="标识符"> <id property="id" column="id"/> <result property="实体类属性" column="数据库列"/> <association property="实体类中类对象属性" javaType="类中类的类型"> <result property="属性" column="数据库列"/> </association></resultMap>一对多:collection<resultMap type="实体类类型" id="标识符"> <id property="id" column="id"/> <result property="实体类属性" column="数据库列"/> <collection property="实体类集合对象" ofType="集合类型"> <result property="属性" column="数据库列"/> </collection></resultMap>以上是“java中Mybatis映射属性、高级映射的示例分析”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注辰迅云资讯频道!...
这篇文章主要介绍“退出docker容器的命令是什么”,在日常操作中,相信很多人在退出docker容器的命令是什么问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”退出docker容器的命令是什么”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!进入docker容器后如果退出容器,容器就会变成Exited的状态。如果要正常退出但不关闭容器,请按Ctrl+P+Q进行退出容器。docker退出容器命令exit离开容器,并关闭容器,这种好比要出门了,且要关灯,只有等下次重新启动该容器后,才会再次打开灯。Ctrl + p + q暂时离开容器,还会回来,这种好比临时出门,下楼拿快递就回来,此时状态容器状态还是 up 运行中。事实上,我们可以在启动容器的时候就进行配置,加入-d参数来启动容器,当然,这条命令仅限于启动全新的容器,启动关闭的容器是不可以的。docker run -d: 后台运行容器,并返回容器ID不过Docker容器在后台运行,必须要有一个前台进程,这里我们让容器有前台程序运行,就可以实现容器的-d 启动后存活。即便是有进程在后台运行,你进入了容器,输入exit退出,依然会终止容器的运行。到此,关于“退出docker容器的命令是什么”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注辰迅云网站,小编会继续努力为大家带来更多实用的文章!...
这篇文章主要介绍了C++泛型编程基本概念的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。1.什么是泛型编程?比如说,我们如何实现一个通用的交换函数呢?int型、double型、char型的交换void Swap(int& left, int& right) { int temp = left; left = right; right = temp; } void Swap(double& left, double& right) { double temp = left; left = right; right = temp; } void Swap(char& left, char& right) { char temp = left; left = right; right = temp; } ......虽然我们可以使用函数重载来实现,但是有一下几个不好的地方:(1)重载的函数仅仅只是类型不同,代码的复用率比较低,当新类型出现时,就需要增加对应的函数。(2)代码的可维护性比较低,一个出错可能所有的重载均出错。泛型编程:编写与类型无关的通用代码,是代码复用的一种手段。模板是泛型编程的基础。包括函数模板和类模板。前面我们介绍的vector,list,map都是一种数据结构容器,容器本身的存储结构不同,各容器中存在的数据类型也可以不同。但我们在访问这些容器中数据时,拥有相同的方式。这种方式就叫做“泛型编程”,顾名思义,不同的类型采用相同的方式来操作。2.函数模板(1)函数模板概念函数模板代表了一个函数家族,该函数模板与类型无关,在使用时被参数化,根据实参类型产生函数的特定类型版本。(2)函数模板格式template<typename T1, typename T2,......,typename Tn> 返回值类型 函数名(参数列表){}//typename是用来定义模板参数关键字,也可以使用class(切记:不能使用struct代替class)template<typename T> void Swap(T& left , T& right) { T temp = left; left = right; right = temp; }(3)函数模板的原理函数模板是一个蓝图,它本身并不是函数,是编译器通过使用方式产生特定具体类型函数的模具。所以其实模板就是将本来应该我们做的重复的事情交给了编译器。在编译器编译阶段,对于函数模板的使用,编译器需要根据传入的实参类型来推演生成对应类型的函数以供调用。比如:当用double类型使用函数模板时,编译器通过对实参类型的推演,将T确定为double类型,然后产生一份专门处理double类型的代码,对于字符类型也是如此。(4)函数模板的实例化用不同类型的参数使用函数模板时,称为函数模板的实例化。模板参数实例化分为:隐式实例化和显式实例化。1)隐式实例化:让编译器根据实参推演模板参数的实际类型template<class T> T Add(const T& left, const T& right){ return left + right; }int main(){ int a1 = 10, a2 = 20; double d1 = 10.0, d2 = 20.0; Add(a1, a2); Add(d1, d2);/* Add(a1, d1); 该语句不能通过编译,因为在编译期间,当编译器看到该实例化时,需要推演其实参类型 通过实参a1将T推演为int,通过实参d1将T推演为double类型,但模板参数列表中只有一个T, 编译器无法确定此处到底该将T确定为int 或者 double类型而报错 注意:在模板中,编译器一般不会进行类型转换操作,因为一旦转化出问题,编译器就需要背黑锅 */// 此时有两种处理方式:1. 用户自己来强制转化 2. 使用显式实例化Add(a1, (int)d1);return 0; }2)显式实例化:在函数名后的<>中指定模板参数的实际类型int main(void){ int a = 10; double b = 20.0; // 显式实例化 Add<int>(a, b); return 0; //如果类型不匹配,编译器会尝试进行隐式类型转换,如果无法转换成功编译器将会报错。}(5)模板参数的匹配原则1)一个非模板函数可以和一个同名的模板函数同时存在,而且该函数模板还可以被实例化为这个非模板函数。int Add(int left, int right) // 专门处理int的加法函数{ return left + right; }template<class T> // 通用加法函数T Add(T left, T right) { return left + right; }void Test(){ Add(1, 2); // 与非模板函数匹配,编译器不需要特化 Add<int>(1, 2); // 调用编译器特化的Add版本}2)对于非模板函数和同名模板函数,如果其他条件都相同,在调动时会优先调用非模板函数而不会从该模板产生出一个实例。如果模板可以产生一个具有更好匹配的函数, 那么将选择模板。int Add(int left, int right) // 专门处理int的加法函数{ return left + right; }template<class T1, class T2> // 通用加法函数T1 Add(T1 left, T2 right) { return left + right; }void Test(){ Add(1, 2); // 与非函数模板类型完全匹配,不需要函数模板实例化Add(1, 2.0); // 模板函数可以生成更加匹配的版本,编译器根据实参生成更加匹配的Add函数 }3.类模板(1)类模板的定义格式template<class T1, class T2, ..., class Tn>class 类模板名{ // 类内成员定义};// 动态顺序表// 注意:Vector不是具体的类,是编译器根据被实例化的类型生成具体类的模具template<class T>class Vector{public : Vector(size_t capacity = 10) : _pData(new T[capacity]) , _size(0) , _capacity(capacity) {}// 使用析构函数演示:在类中声明,在类外定义。 ~Vector(); void PushBack(const T& data); void PopBack();// ... size_t Size() {return _size;} T& operator[](size_t pos) { assert(pos < _size); return _pData[pos]; }private: T* _pData; size_t _size; size_t _capacity; };// 注意:类模板中函数放在类外进行定义时,需要加模板参数列表template <class T>Vector<T>::~Vector() { if(_pData) delete[] _pData; _size = _capacity = 0; }(2)类模板的实例化类模板实例化与函数模板实例化不同,类模板实例化需要在类模板名字后跟<>,然后将实例化的类型放在<>中即可,类模板名字不是真正的类,而实例化的结果才是真正的类。// Vector类名,Vector<int>才是类型Vector<int> s1; Vector<double> s2;感谢你能够认真阅读完这篇文章,希望小编分享的“C++泛型编程基本概念的示例分析”这篇文章对大家有帮助,同时也希望大家多多支持辰迅云,关注辰迅云资讯频道,更多相关知识等着你来学习!...